• ABM (Account Based Marketing)

L’ABM est l’acronyme de Account Based Marketing (ABM). Cette stratégie marketing consiste à concentrer ses ressources commerciales et marketing sur un ensemble défini de comptes clés cibles.

  • API (Application Programming Interface)

Ce sigle désigne un ensemble de fonctions visant à faciliter la création, l’échange et l’intégration de services et de données entre des applications grâce à un langage de programmation.

  • BI (Business Intelligence)

La Business Intelligence (BI) définit les technologies, applications et pratiques de collecte, d’intégration, d’analyse et de présentation des données et qui a pour objectif de soutenir une meilleure prise de décision des verticales métiers, commerciale, marketing, finance… Les systèmes de BI sont essentiellement des aides à la décision basés sur les données.

  • Bigdata

L’expression Bigdata est apparue en 1997 dans un article sur les défis technologiques à relever pour visualiser les « grands ensembles de données ». Il désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologie et de méthodes analytiques particulières.

  • CRM (Customer Relationship Management)

Le CRM (Customer Relationship Management) est une stratégie qui prône la centralisation, le stockage, l’analyse et l’exploitation des interactions d’un individu avec une entreprise en vue d’optimiser la gestion et la qualité de la relation client. Il désigne également une solution informatique destinée à exploiter des données collectées durant les échanges entre un prospect/client et l’entreprise dans un but commercial.

  • CDP (Customer Data Platform)

Une CDP ou Customer Data Platform en marketing centralise et ordonne les données online et offline de ses clients en vue de les exploiter plus efficacement. Ainsi, l’entreprise pourra segmenter, cibler et personnaliser ses campagnes marketing pour améliorer sa relation client. Cet outil permet ladiffusion des informations (données clients) vers d’autres outils.

  • Connaissance client par la segmentation

Le principe est de créer un profil type de client répondant à des critères exogènes (qualification non basée sur la relation avec le client). Cette segmentation pourra également être utilisée en prospection. La segmentation, par l’identification et la catégorisation de comptes-clés, sera par exemple indispensable à la mise en place d’une

  • Data Driven marketing

Il s’agit de permettre aux marketeurs de prendre des décisions basées sur des données et informations précises plutôt que sur des opinions ou intuitions.

  • Data Quality  

La Data Quality renvoie à la capacité d’une entreprise à mettre en place des actions pour s’assurer que les données de son ou ses systèmes d’informations soient correctes et pérennes à travers le temps. La maîtrise de la qualité des données est un enjeu important pour les entreprises. Il s’agit de fournir des données correctes, complètes, à jour et cohérentes à tous les utilisateurs de la donnée.

La notion de qualité des données est un terme générique décrivant à la fois les différentes caractéristiques des données mais aussi l’ensemble des processus permettant de garantir ces caractéristiques. Une donnée est dite de qualité dès lors qu’elle répond aux exigences de son utilisation.

  • Data science

La Data Science désigne un ensemble de disciplines d’inférence de données, de développement d’algorithmes et de technologie. Ces dernières ont pour but de résoudre des problèmes analytiques complexes. La data sciences consiste à utiliser les données de manière créative pour générer de la valeur commerciale au travers d’insights, dans le but d’aider les entreprises à prendre des décisions plus intelligentes.

  • Data Visualisation

Appelé également Dataviz, ce terme regroupe un ensemble d’outils destinés à traduire des données brutes en représentations visuelle simplifiées afin d’en faciliter l’analyse et la compréhension, l’objectif étant de permettre aux entreprises d’analyser un volume de données très conséquent afin de communiquer rapidement et efficacement à leur sujet et de prendre des décisions.

  • Données contextuelles

Moins souvent utilisées car plus difficiles à récolter, les données contextuelles vont livrer des informations sur l’environnement de l’entreprise ou du contact. Le cas typique d’une donnée contextuelle est celui obtenu lors d’une étude de marché ou d’une enquête. Les données contextuelles peuvent également provenir de données très spécialisées issues de bases de données privées (base de données de médicaments, immatriculations de véhicules …) ou publiques (recensement, zone à risques …).

  • Donnes externes

Une donnée externe est une donnée qui n’est pas générée par un des composants du système d’information interne de l’entreprise, ou qui n’est pas saisie en interne.

Il n’y a pas de différence majeure entre une donnée interne et une donnée externe. Simplement, l’entreprise dispose de moins de contrôle sur la donnée externe, lors de sa saisie, ou de sa génération par une application externe. La phase de vérification de la qualité des données sera d’autant plus importante dans le cas d’une donnée externe, susceptible d’avoir été corrompue lors de sa saisie ou de sa génération.

Les données externes peuvent être des données de gestion, comme la remontée des ventes d’un réseau de partenaires; ou des données périphériques, comme la météorologie, des cours de bourse, des relevés de prix réalisés chez les concurrents. Dans le contexte marketing et publicitaire, la notion de données externes fait généralement référence aux Third party data.

  • Données internes

Une donnée interne est une donnée saisie dans l’entreprise ou générée par un des composants du système d’information. Il n’y a pas de différence majeure entre une donnée interne et une donnée externe. On aura tendance à avoir plus confiance dans la qualité des données internes, car elles viennent d’un système que l’on contrôle.

  • Données relationnelles et comportementales

Les données relationnelles vont catégoriser la relation entretenue entre le vendeur et l’acheteur. Au-delà du simple acte d’achat, elles vont catégoriser la “qualité” de la relation : nombre de contacts, statut de l’acheteur (VIP, exceptionnel), nombre d’interactions dans l’année, propension à ouvrir les communications …

Ces données sont en majorité alimentées par le comportement de l’acheteur sur les supports digitaux (site web, réseaux sociaux …). La problématique de ce type de données est de pouvoir raccrocher un comportement à un contact précis. C’est tout l’objet des Data Management Plateform (DMP).

  •  Données transactionnelles

Comme leur nom l’indique, les données transactionnelles correspondent aux informations relatives à une transaction et sont caractérisées au minimum par deux éléments clés : un montant et une date. La transaction la plus commune est l’acte d’achat mais peut aussi correspondre aux stocks, aux salaires, aux ventes … Ce type de données est souvent hébergé dans les ERP.

  • Données socio démographiques

Ce sont toutes les données qui vont qualifier le profil du contact : âge, sexe, lieu d’habitation, catégorie socio-professionnelles, fonction …

Ce sont généralement les données les plus simples à obtenir et celles qui vont servir à une segmentation client basique ou à la constitution d’un fichier de cibles de prospection. Dans le B2B, ces données vont être complétées par les informations relatives à l’entreprise du contact : secteur, taille, localisation. C’est typiquement le type de données que l’on retrouve assez facilement en open data.

  • DMP (Data Management Platform)

 

Est un logiciel de gestion de données offline et online (cookies et services tiers) qui centralise, trie, stocke, gère et analyse les informations relatives aux visiteurs d’un site web et aux clients d’une entreprise. Elle permet de développer des campagnes marketing efficaces et plus ciblées, optimisées et stratégiques sur tous les canaux pour l’obtention d’un meilleur ROI.

  • Enrichissement de données ou Data Appending

 

L’enrichissement de données est une procédure qui consiste à compléter une base de données avec de nouvelles informations. En somme, il s’agit de procurer davantage de valeurs aux données existantes.

L’enrichissement de données est l’une des étapes que l’on retrouve en Data Quality.

  • ERP (Enterprise Ressource Planning)

L’ERP est un progiciel qui permet de gérer l’ensemble des processus opérationnels d’une entreprise en intégrant plusieurs fonctions de gestion : solution de gestion des commandes, solution de gestion des stocks, solution de gestion de la paie et de la comptabilité, solution de gestion e-commerce, solution de gestion de commerce BtoB ou BtoC … dans un système. Autrement dit, l’ERP représente la « colonne vertébrale » d’une entreprise.

  • Funnel

C’est le parcours d’achat d’un client, qui est le plus souvent illustré par un entonnoir et qui représente le processus de conversion d’un prospect en client.

Ce tunnel d’acquisition est un outil d’analyse d’audience marketing qui découpe le parcours client en différentes étapes.

  • First party data

Les first party data ou données first party ont d’abord désigné, dans le domaine de la publicité Internet, les données potentielles de ciblage qui sont collectées directement par le site éditeur support publicitaire. Les first party data sont généralement des données comportementales ou déclaratives enregistrées sur le site support lors de visites précédentes et qui sont associées aux visiteurs à l’aide d’un cookie.

Le terme de first party data s’est ensuite élargi à l’ensemble des acteurs d’Internet et désigne donc l’ensemble des données “propriétaires” dont dispose une entreprise ou un annonceur.

La notion de first party data désignait à l’origine essentiellement les données collectées online, mais elle englobe aussi désormais les données CRM / offline, notamment quand celles-ci sont réconciliées avec les données Internet au sein d’une DMP.

  • IA Générative

Une IA générative est l’une des formes d’intelligence artificielle qui est capable de créer de nouveaux contenus de manière autonome, en utilisant des données d’apprentissage pour imiter les créations humaines (Machine learning).

Les IA génératives sont utilisées dans de nombreux domaines tels que la création artistique, la création de contenus, la génération de données, la génération de contenu de jeux vidéo, les chatbots, la création de contenu pour les réseaux sociaux et la génération automatique de code. Exemple : ChatGPT, Bards …

  • Pipeline commercial

Un pipeline commercial, ou son synonyme “pipeline de ventes”, est un outil commercial qui permet de visualiser votre processus de ventes, de la prise de contact à la conclusion de la vente. Ces processus ont pour objectif de transformer un prospect en client. Cette vue d’ensemble permet de mesurer son taux de conversion, et d’obtenir de nombreuses informations quant à la durée des cycles de vente.

  • Predicitve analysis

L’analyse prédictive est une branche de l’analyse statistique. Elle consiste à analyser une série de données afin d’élaborer des hypothèses prédictives. Celle-ci permet d’aider les entreprises à se développer et à réagir rapidement aux changements. Elle s’établit en plusieurs étapes :

  • 1ère étape qui permet de se pencher sur une catégorie précise de données à relever.
  • 2ème étape qui est portée sur la récolte des données. Une très grande quantité de données sont nécessaires pour une précision importante.
  • 3ème étape qui est le traitement des données.

En entreprise, l’analyse prédictive permet d’établir des schémas, des modèles déterminant une tendance, détectant des opportunités, ainsi que de prendre des décisions optimales pour mener des bonnes actions au bon moment. La science des données et l’apprentissage automatique (Machine Learning) sont des technologies clés pour les entreprises souhaitant tirer parti des informations massives.

  • Qualification de données

La qualification base de données, c’est une technique de marketing opérationnel qui consiste à augmenter la valeur de ses données. Pour cela, il faut « enrichir » sa base, en recueillant des informations valides, pertinentes et fonctionnelles, au sujet des contacts qui la composent.

La qualification de données est l’une des étapes que l’on retrouve en Data Quality.

  • Open data

L’Open data ou données ouvertes sont des données numériques dont l’accès et l’usage sont laissés libres aux usagers, qui peuvent être d’origine privée mais surtout publique, produites notamment par une collectivité ou un établissement public. Elles sont diffusées de manière structurée selon une méthode et une licence ouverte garantissant leur libre accès et leur réutilisation par tous, sans restriction technique, juridique ou financière.

L’accès aux données vise d’une part à permettre aux citoyens de mieux contrôler l’administration, d’autre part d’exploiter ces données, ce qui implique que ce droit d’accès s’accompagne d’un droit à la réutilisation des données.

L’ouverture des données est ainsi à la fois une philosophie de l’accès à l’information, un mouvement de défense des libertés et une politique publique.

  • RNVP (Restructurer, Normaliser et Valider les adresses postales)

Sigle désignant la procédure (le plus souvent informatisée) permettant de Restructurer, Normaliser et Valider les adresses postales contenues dans un fichier. Cette procédure est essentielle en marketing direct postal, non seulement pour limiter le nombre de plis non distribuables pour une raison ou pour une autre, mais également de facto, pour limiter le coût de cette non-distribution. Concrètement, elle consiste dans un premier temps (restructuration) à s’assurer que les informations descriptives de l’adresse du destinataire sont présentées selon la bonne séquence : nom du destinataire, complément d’adresse éventuel, voie, boîte postale, code postal, localité. Dans un second temps (normalisation), il s’agira de contrôler la longueur des lignes de texte, ainsi que l’utilisation éventuelle d’abréviations normées, la ponctuation ou encore l’utilisation requise de lettres majuscules pour le nom de la localité… Le service national de l’adresse de La Poste gère le fichier des référentiels de voies des 36 000 communes de France, les lieux-dits, les codes postaux et les cedex…

  • Second party data

Le terme de second party data ou données seconde partie désigne généralement des données relatives aux clients ou prospects, voire des données externes d’environnement, qui proviennent d’un partenaire et qui viennent donc enrichir et compléter les données propriétaires dont dispose déjà l’entreprise.

Les second party data sont généralement collectées ou échangées dans le cadre d’un partenariat ou éventuellement achetées. La frontière est parfois floue avec le terme de Third party data.

  • Third party data

Les third party data sont généralement des données de ciblage publicitaire ou marketing Internet qui sont fournies à l’annonceur par une société tierce autre que l’éditeur utilisé comme site support pour une campagne.

Les third party data sont essentiellement fournies par des régies publicitaires, des spécialistes de la donnée ou par le biais de marketplace. Ces données comportementales ou déclaratives sont collectées et associées aux visiteurs à l’aide de cookies.

Sur un site e-commerce, les third party data peuvent par exemple être utilisées pour personnaliser l’offre alors que c’est la première fois que l’internaute visite le site.

La notion de third party data a été popularisée par les usages du marketing digital, mais les données externes peuvent également avoir une provenance offline (données sorties de caisses de partenaire, données d’enrichissement B2B, etc).