
La gestion de bases de données dans Excel constitue un défi majeur pour de nombreuses organisations qui manipulent quotidiennement d’importants volumes d’informations. Contrairement à sa vocation initiale de tableur de calcul, Excel s’est progressivement imposé comme un outil incontournable de stockage et d’analyse de données dans l’écosystème professionnel. Cette évolution s’explique par sa facilité d’utilisation, sa disponibilité quasi-universelle et ses fonctionnalités avancées qui permettent de gérer efficacement des structures de données complexes. Cependant, pour exploiter pleinement le potentiel d’Excel en tant que système de gestion de données, il est essentiel de maîtriser les techniques d’optimisation et les bonnes pratiques qui garantissent performance, fiabilité et évolutivité.
Architecture des données relationnelles dans excel avec les tableaux structurés
L’architecture relationnelle dans Excel repose sur une approche méthodique de structuration des données qui s’inspire des principes fondamentaux des bases de données traditionnelles. Cette méthode permet de créer des relations logiques entre différents ensembles de données tout en conservant l’intégrité et la cohérence des informations stockées.
Conversion des plages de données en objets table excel
La transformation des plages de données classiques en objets Table constitue la première étape vers une gestion optimisée des données dans Excel. Cette conversion offre de nombreux avantages, notamment la possibilité d’appliquer automatiquement des formats et des formules aux nouvelles lignes, ainsi qu’une meilleure intégration avec les outils d’analyse d’Excel. Pour effectuer cette conversion, il suffit de sélectionner la plage de données et d’utiliser la commande Ctrl+T ou d’accéder au menu « Insérer » puis « Tableau ».
Les objets Table offrent également une nomenclature structurée qui facilite grandement la création de références dynamiques. Chaque colonne peut être référencée par son nom, ce qui rend les formules plus lisibles et moins susceptibles d’erreurs lors de modifications de structure. Cette fonctionnalité s’avère particulièrement utile lors de la création de tableaux croisés dynamiques ou de formules complexes impliquant plusieurs tables.
Configuration des relations entre tables avec power query
Power Query révolutionne la manière dont vous pouvez établir des connexions entre différentes tables dans Excel. Cet outil puissant permet de créer des requêtes sophistiquées qui établissent des relations logiques entre les données, similaires aux jointures dans les bases de données relationnelles. L’interface intuitive de Power Query facilite la création de ces relations sans nécessiter de compétences avancées en programmation.
La configuration des relations implique généralement l’identification des clés communes entre les tables et la définition du type de jointure approprié. Power Query supporte différents types de jointures : inner join, left join, right join et full outer join. Cette flexibilité permet d’adapter la structure relationnelle aux besoins spécifiques de chaque analyse tout en maintenant l’intégrité des données source.
Normalisation des données selon les formes normales de codd
L’application des formes normales de Codd dans Excel garantit une structure de données optimale qui évite la redondance et minimise les risques d’incohérence. La première forme normale exige que chaque cellule ne contienne qu’une valeur atomique, éliminant ainsi les listes de valeurs séparées par des virgules ou des points-virgules dans une même cellule.
La normalisation des données selon les principes de Codd améliore significativement l’efficacité des requ
efficacité des requêtes, réduit la duplication de données et simplifie la maintenance à long terme.
En pratique, respecter la deuxième forme normale dans Excel revient à séparer les informations qui ne dépendent pas directement de la clé principale de la table. Par exemple, au lieu de répéter l’adresse d’un client sur chaque commande, vous créez une table Clients et une table Commandes liées par un identifiant unique. La troisième forme normale va plus loin en éliminant les dépendances transitives, ce qui vous conduit à isoler dans des tables dédiées les informations susceptibles d’évoluer indépendamment, comme les catégories produits ou les services. Même si Excel n’impose pas ces formes normales, les appliquer disciplinera votre architecture de données et évitera que vos fichiers ne deviennent ingérables au fil du temps.
Adopter cette normalisation demande souvent de « déplier » des fichiers Excel existants, très orientés reporting (avec des totaux, des colonnes de mois, des cellules fusionnées), pour les transformer en vraies tables de données. Vous gagnez alors en souplesse d’analyse : un jeu de données bien normalisé se prête beaucoup mieux à l’utilisation de Power Query, des tableaux croisés dynamiques et des modèles de données avancés. À moyen terme, cette approche rapproche votre classeur Excel d’un véritable schéma de base de données relationnelle, tout en conservant la flexibilité du tableur.
Implémentation des clés primaires et étrangères dans excel
Contrairement à un SGBD comme SQL Server, Excel ne dispose pas nativement de la notion de clé primaire ou de clé étrangère. Pourtant, pour stocker vos bases de données efficacement dans Excel, il est indispensable de les implémenter « par convention ». La clé primaire se matérialise par une colonne unique, sans doublon ni cellule vide, généralement placée en première position dans la table. Vous pouvez créer un identifiant technique (par exemple ID_Client) incrémenté automatiquement via une formule ou une macro, plutôt que de vous reposer sur un libellé texte sujet aux variations.
Les clés étrangères, quant à elles, sont des colonnes qui pointent vers la clé primaire d’une autre table. Par exemple, la colonne ID_Client dans la table Commandes doit correspondre à un ID_Client existant dans la table Clients. Pour renforcer cette relation, vous pouvez utiliser la validation des données afin de n’autoriser que les valeurs présentes dans la table de référence, ou encore recourir à des formules comme RECHERCHEX ou XLOOKUP pour vérifier la cohérence. Même si Excel ne bloquera pas la saisie d’une valeur « orpheline » comme le ferait Access, cette discipline limite fortement les erreurs et maintient l’intégrité référentielle.
Une bonne pratique consiste également à distinguer clairement les colonnes de clés techniques (souvent numériques, sans signification métier) des codes métiers (comme un code produit lisible). Les clés techniques servent à relier les tables dans vos requêtes Power Query ou vos modèles Power Pivot, tandis que les codes métiers restent disponibles pour l’analyse et les rapports. En respectant cette séparation, vous facilitez les futures évolutions de votre base de données Excel, par exemple lors d’une migration vers un véritable SGBD.
Optimisation des performances avec les formats de fichiers excel natifs
Au-delà de la modélisation, le format de fichier que vous choisissez pour stocker vos données dans Excel a un impact direct sur la performance, la taille des fichiers et la robustesse de vos classeurs. Lorsque vous commencez à manipuler plusieurs centaines de milliers de lignes et des dizaines de colonnes, quelques choix techniques peuvent faire la différence entre un fichier fluide et un classeur qui se fige à chaque clic. Comprendre les spécificités des formats natifs d’Excel est donc crucial pour optimiser le stockage de gros volumes de données.
Comparatif XLSX vs XLSB pour le stockage de gros volumes
Le format .xlsx est aujourd’hui le standard le plus répandu pour les classeurs Excel. Il repose sur une structure XML compressée, lisible et interopérable avec de nombreux outils tiers. Cependant, lorsqu’il s’agit de stocker des bases de données volumineuses dans Excel, le format .xlsb (classeur binaire) présente souvent de meilleurs résultats en termes de performance. En pratique, un même fichier peut être 20 à 50 % plus léger et s’ouvrir sensiblement plus vite lorsqu’il est enregistré en binaire, surtout en présence de nombreuses formules et de données massives.
Le revers de la médaille est que le format .xlsb est moins transparent et un peu moins bien supporté par certains outils externes d’import-export, qui attendent plutôt du .xlsx ou du .csv. Pour un environnement purement Excel, ou lorsque votre classeur joue le rôle de « base de données locale » alimentant des rapports internes, .xlsb reste néanmoins un excellent candidat. Une approche hybride consiste à conserver une version .xlsb comme fichier de travail performant, et à exporter les tables de référence au format .xlsx ou .csv pour les échanges et les intégrations avec d’autres systèmes.
En résumé, si votre priorité est la compatibilité et la pérennité du format, restez en .xlsx pour stocker vos bases de données Excel. Si votre priorité est la performance brute sur de gros volumes et des modèles complexes, testez systématiquement une version .xlsb et comparez les temps d’ouverture, de calcul et de sauvegarde. Vous serez parfois surpris du gain obtenu.
Compression des données avec les algorithmes ZIP d’excel
Les formats .xlsx et .xlsm sont en réalité des archives ZIP contenant des fichiers XML. Lorsqu’on stocke des bases de données dans Excel, cette compression intégrée permet déjà de réduire significativement la taille des fichiers par rapport au très ancien format .xls. Toutefois, la manière dont vous structurez vos données influence directement l’efficacité de cette compression. Des colonnes homogènes, avec des valeurs répétitives (par exemple des codes de catégorie) se compressent beaucoup mieux que des colonnes de texte libre toutes différentes.
Pour tirer parti au maximum de cette compression ZIP, il est pertinent de factoriser les informations répétitives dans des tables de référence et de les remplacer par des identifiants dans les tables de faits. Non seulement cette approche respecte la normalisation relationnelle, mais elle réduit aussi la quantité de texte stockée dans chaque ligne, ce qui allège le fichier. Pensez aussi à limiter les mises en forme inutiles : chaque couleur, police ou bordure différente ajoute de la complexité aux fichiers XML et réduit la capacité de compression. Un fichier « brut de données » se comprime bien mieux qu’un tableau bardé de styles variés.
Enfin, lorsque vos bases de données Excel servent principalement de stockage et sont consommées par d’autres processus (Power Query, Power BI, scripts), vous pouvez désactiver le suivi des modifications, réduire le nombre de feuilles et supprimer les objets inutiles (formes, graphiques, images). C’est un peu comme vider le coffre et les sièges d’une voiture avant un long voyage : vous ne changez pas le moteur, mais vous allégez la charge pour gagner en autonomie et en confort.
Gestion mémoire et limitation des 1 048 576 lignes par feuille
Excel impose une limite stricte de 1 048 576 lignes par feuille et de 16 384 colonnes. Si vous stockez vos données sous forme de base de données dans Excel, cette contrainte finit tôt ou tard par se poser, en particulier dans les contextes de reporting métier ou de suivi opérationnel. Au-delà de la simple limite de lignes, chaque cellule remplie consomme de la mémoire : avec plusieurs feuilles volumineuses et beaucoup de formules, vous pouvez rapidement atteindre les limites de RAM d’une machine standard.
Pour optimiser la gestion mémoire, il est recommandé d’isoler les données brutes dans des tables structurées sans calculs, et de réserver une ou plusieurs feuilles séparées pour les analyses, graphiques et tableaux croisés dynamiques. Vous limitez ainsi la duplication d’informations et réduisez le nombre de cellules actives. De même, évitez les formules volatiles à grande échelle (INDIRECT, DECALER, AUJOURDHUI), qui obligent Excel à recalculer l’ensemble du classeur à la moindre modification. Préférez des fonctions plus stables et des plages nommées figées.
Quand vous approchez de la limite des 1 048 576 lignes, interrogez-vous : avez-vous vraiment besoin de toutes ces données dans un unique classeur Excel ? Dans bien des cas, il est plus efficace de déléguer le stockage de l’historique complet à une base de données externe (SQL Server, MySQL, Access) et d’importer dans Excel uniquement un sous-ensemble pertinent pour l’analyse courante. Excel devient alors la couche de présentation et d’analyse, plutôt qu’un entrepôt de données illimité.
Techniques de partitionnement horizontal des datasets volumineux
Lorsque vos données dépassent le million de lignes, ou s’en approchent dangereusement, le partitionnement horizontal devient une stratégie incontournable pour continuer à stocker vos bases de données dans Excel sans sacrifier la performance. L’idée consiste à répartir vos enregistrements sur plusieurs tables logiquement identiques, mais séparées selon un critère fonctionnel : par année, par mois, par région, par type de produit, etc. C’est l’équivalent, côté feuille de calcul, du partitionnement de table dans les SGBD.
Par exemple, plutôt qu’une table unique regroupant toutes les ventes depuis 2010, vous pouvez créer une feuille ou un fichier par année (Ventes_2019, Ventes_2020, etc.). Power Query vous permettra ensuite de recombiner ces partitions à la volée lorsque vous aurez besoin d’une vue globale. Cette approche réduit la taille de chaque classeur, limite le risque de corruption et facilite les sauvegardes incrémentales. Elle permet aussi de ne charger en mémoire que la période utile pour une analyse donnée, ce qui accélère sensiblement les calculs.
Un autre scénario de partitionnement consiste à séparer les données « actives » (par exemple les 12 derniers mois) des données d’archive plus anciennes, que vous ouvrirez seulement en cas de besoin spécifique. Vous pouvez conserver ces archives au format .csv compressé, et ne les importer dans Excel que ponctuellement. Le bon compromis dépend de votre contexte métier, mais la règle générale reste la même : mieux vaut plusieurs bases de données Excel ciblées et maîtrisées qu’un seul monolithe gigantesque et lent.
Intégration d’excel avec les systèmes de gestion de bases de données externes
Même si Excel peut jouer le rôle de base de données légère, il révèle tout son potentiel lorsqu’il est connecté à de véritables systèmes de gestion de bases de données (SGBD) externes. Cette intégration vous permet de bénéficier de la robustesse, de la sécurité et des capacités de stockage illimitées d’un SGBD, tout en conservant la souplesse d’analyse du tableur. Vous transformez ainsi Excel en une interface utilisateur avancée, capable de se connecter, d’interroger et de mettre à jour des sources de données professionnelles.
Connexions ODBC vers MySQL et PostgreSQL depuis excel
Les pilotes ODBC constituent l’un des moyens les plus standardisés pour relier Excel à des bases MySQL ou PostgreSQL. Une fois le pilote installé et la source de données ODBC configurée au niveau du système, vous pouvez, depuis Excel, utiliser l’onglet « Données » puis « Obtenir des données » (ou « À partir d’autres sources » selon les versions) pour créer une connexion vers la base distante. Vous choisissez ensuite la ou les tables à importer, ou bien vous saisissez une requête SQL personnalisée pour ne ramener qu’un sous-ensemble pertinent.
Ce mode de connexion est particulièrement intéressant lorsque vous souhaitez travailler sur des données à jour sans les copier manuellement dans Excel. Vous pouvez paramétrer une actualisation périodique des requêtes, de manière à ce que vos tableaux de bord ou vos rapports se synchronisent automatiquement avec la base MySQL ou PostgreSQL. En revanche, gardez à l’esprit que les performances dépendront de la qualité de la connexion réseau et de l’optimisation des requêtes SQL côté serveur. Une requête mal indexée sur des millions de lignes se traduira par un Excel lent, voire bloqué.
Dans un contexte de collaboration, il est aussi important de sécuriser ces connexions ODBC. Centraliser les paramètres de connexion, utiliser des comptes de service avec des droits limités en lecture seule et documenter les requêtes utilisées vous aidera à garder le contrôle sur ce pont entre Excel et vos bases de données stratégiques.
Import de données depuis SQL server avec power query
Pour SQL Server, Excel propose une intégration particulièrement aboutie via Power Query. Depuis l’onglet « Données », la commande « À partir de SQL Server » vous permet de définir le serveur, la base et le mode d’authentification, puis de sélectionner les tables ou vues à exploiter. Power Query agit ici comme une couche ETL (Extraction, Transformation, Chargement) dans laquelle vous pouvez filtrer, transformer, fusionner et agréger les données avant même qu’elles n’atterrissent dans une feuille Excel.
Cette approche présente plusieurs avantages pour stocker des bases de données efficacement dans Excel. D’abord, vous ne chargez que les colonnes et les lignes nécessaires à votre analyse, ce qui réduit la taille des fichiers et le temps de calcul. Ensuite, les transformations que vous appliquez (changement de type, nettoyage, jointures) sont mémorisées sous forme de script M et peuvent être réexécutées à chaque actualisation sans intervention manuelle. Vous obtenez ainsi un processus reproductible, beaucoup moins sujet aux erreurs de copier-coller et de manipulation directe.
Enfin, Power Query permet de combiner dans un même modèle des données provenant de plusieurs sources SQL Server, ou même d’autres SGBD et fichiers plats. Vous créez alors une sorte de « mini data warehouse » piloté depuis Excel, idéal pour des équipes métiers qui n’ont pas systématiquement accès aux outils de BI d’entreprise plus lourds.
Synchronisation bidirectionnelle avec microsoft access via OLE DB
Microsoft Access occupe une position intermédiaire intéressante entre Excel et les SGBD lourds. Pour des bases de données de taille moyenne, la combinaison Excel + Access offre un compromis efficace. Via OLE DB (ou les anciens connecteurs DAO/ADO), vous pouvez établir des liens dynamiques entre des tables Access et des feuilles Excel. Excel devient alors à la fois un consommateur et un producteur de données pour la base Access.
Concrètement, vous pouvez lier une table Access dans Excel pour l’analyser, puis écrire des macros VBA qui mettent à jour cette même table à partir des modifications saisies dans le classeur. Cette synchronisation bidirectionnelle permet, par exemple, de construire une interface de saisie plus conviviale dans Excel, tout en stockant les données de façon structurée et sécurisée dans Access. Il est toutefois essentiel de bien gérer les conflits de mise à jour et de limiter les accès simultanés en écriture pour éviter les corruptions.
Une bonne pratique consiste à réserver Access au stockage et à la logique de contrôle (contraintes, relations, requêtes paramétrées) et à utiliser Excel comme couche de présentation, de calcul et de reporting. Ainsi, lorsque vos besoins dépasseront les capacités d’Access, la migration vers SQL Server ou un autre SGBD sera facilitée, car votre modèle de données sera déjà structuré proprement.
Configuration des requêtes paramétrées pour oracle database
Dans les environnements où Oracle Database est le socle du système d’information, Excel peut également jouer le rôle de client léger via des requêtes paramétrées. Après avoir installé le pilote Oracle approprié (ODP.NET, OLE DB ou ODBC), vous pouvez créer dans Excel des connexions qui exécutent des requêtes SQL avec des paramètres dynamiques. Par exemple, un utilisateur peut choisir une période, un code région ou un type de produit dans des cellules de saisie, et ces valeurs sont ensuite injectées dans la requête envoyée à Oracle.
Cette approche présente deux bénéfices majeurs. D’une part, elle évite de télécharger des ensembles de données gigantesques pour ensuite filtrer dans Excel : c’est le serveur Oracle qui fait le travail de tri et d’agrégation, bien plus efficacement. D’autre part, elle permet de mutualiser des requêtes complexes validées par l’IT, tout en donnant aux utilisateurs la liberté d’explorer différents scénarios simplement en modifiant des paramètres dans le classeur. Comme toujours, la documentation et le contrôle des droits d’accès restent essentiels pour éviter des requêtes trop lourdes ou des fuites de données sensibles.
En combinant ces connexions paramétrées avec Power Query ou Power Pivot, vous pouvez aller encore plus loin et construire de véritables modèles d’analyse connectés au cœur de votre SGBD Oracle, tout en restant dans l’écosystème familier d’Excel.
Automatisation des processus ETL avec VBA et power query M
Dès que vos flux de données deviennent récurrents, automatiser les étapes d’extraction, de transformation et de chargement (ETL) est indispensable pour gagner du temps et fiabiliser les traitements. Excel met à votre disposition deux leviers complémentaires : VBA, le langage historique de macros, et M, le langage de script de Power Query. Bien utilisés, ils transforment un simple classeur en véritable pipeline de données automatisé.
VBA est particulièrement adapté pour orchestrer des opérations séquentielles : ouvrir des fichiers .csv en masse, lancer l’actualisation de requêtes, copier des résultats dans des rapports, envoyer des mails de synthèse. Vous pouvez, par exemple, programmer un bouton « Mettre à jour la base » qui va importer les données du jour, nettoyer les colonnes, déclencher les calculs et sauvegarder une version datée du classeur. Cette approche évite les manipulations manuelles répétitives, sources d’erreurs et de pertes de temps.
Power Query M, de son côté, est taillé pour la transformation de données. Chaque étape que vous ajoutez dans l’éditeur (changement de type, suppression de colonnes, fusion, pivot, remplissage) génère automatiquement du code M. Vous pouvez ensuite affiner ce script pour gérer des cas particuliers : détection de schémas de fichiers variables, boucles sur des dossiers, gestion d’exceptions. L’avantage majeur est que ces transformations restent déclaratives et facilement rejouables : un simple clic sur « Actualiser » permet de reconstruire l’ensemble de la chaîne de traitement.
En combinant VBA et M, vous pouvez atteindre un haut niveau d’automatisation : VBA pilote le calendrier d’exécution (par exemple à l’ouverture du fichier ou à heure fixe via le Planificateur de tâches Windows), tandis que Power Query se charge des transformations lourdes sur les datasets. Pour des équipes métiers qui ne disposent pas d’outils ETL dédiés, cette architecture « ETL dans Excel » constitue une solution pragmatique et puissante, à condition de bien documenter les scripts et de contrôler les performances sur des volumes croissants.
Sécurisation et sauvegarde des données critiques dans excel
Plus vos classeurs Excel se rapprochent d’une véritable base de données, plus la question de la sécurité et de la sauvegarde devient cruciale. Un fichier corrompu, supprimé par erreur ou partagé trop largement peut avoir des conséquences importantes sur l’activité. Il est donc indispensable de mettre en place des bonnes pratiques pour protéger l’accès, garantir l’intégrité et assurer la pérennité de vos données critiques.
Sur le plan de la sécurité, Excel propose plusieurs niveaux de protection. Vous pouvez chiffrer un fichier par mot de passe, protéger certaines feuilles contre la modification et verrouiller des cellules clés (par exemple les colonnes de clés primaires ou les tables de référence). Bien que ces protections ne remplacent pas les mécanismes de sécurité d’un SGBD professionnel, elles réduisent le risque de « fausses manipulations » et de fuites accidentelles. Dans un environnement collaboratif, l’utilisation d’Excel sur SharePoint ou OneDrive permet en outre de gérer des droits d’accès fins (lecture seule, modification) et de tracer l’historique des changements.
Côté sauvegarde, il est recommandé de bannir la pratique du fichier unique Base_Clients_final.xlsx sur un disque local. Privilégiez un stockage centralisé (SharePoint, serveur de fichiers sauvegardé, solution de backup cloud) avec une politique de versions qui vous permet de revenir en arrière en cas de problème. Pour les fichiers les plus critiques, une duplication périodique au format ouvert .csv constitue une assurance supplémentaire : même si un classeur devenait illisible, vous conserveriez une copie exploitable des données brutes. Documenter la structure de vos tables (description des colonnes, types, relations) dans un « code book » ou dictionnaire de données facilitera également toute opération de restauration ou de migration.
Enfin, rappelez-vous qu’Excel n’est pas conçu pour résister à des attaques malveillantes sophistiquées. Si vos datasets contiennent des informations sensibles (données personnelles, financières, stratégiques), il peut être préférable de ne stocker dans Excel qu’un sous-ensemble pseudonymisé ou agrégé, l’intégralité des données restant sécurisée dans un SGBD robuste. Vous combinez ainsi la puissance d’analyse d’Excel avec le niveau de sécurité requis par vos enjeux métiers et réglementaires.
Analyse de données avancée avec power pivot et modèles de données
Une fois vos données correctement structurées et sécurisées, Excel vous offre un dernier levier pour exploiter pleinement ce « mini data warehouse » : Power Pivot et les modèles de données. Ces fonctionnalités transforment Excel en véritable moteur analytique en mémoire, capable de gérer des millions de lignes et des relations complexes entre tables, bien au-delà de ce que permettent les tableaux croisés dynamiques traditionnels.
Le modèle de données vous permet de charger plusieurs tables reliées entre elles (clients, produits, ventes, calendriers) et de définir graphiquement les relations entre ces tables, sur le même principe qu’un diagramme relationnel de base de données. Au lieu de tout aplatir dans une seule feuille géante, vous conservez une architecture en étoile ou en flocon, beaucoup plus efficace pour les analyses multidimensionnelles. Power Pivot ajoute par-dessus un langage de mesures, DAX, qui vous permet de créer des indicateurs avancés : cumul année à date, comparaison N/N-1, parts de marché, ratios conditionnels.
Cette approche présente un double avantage pour stocker des bases de données efficacement dans Excel. D’une part, les données sont compressées en colonne dans le moteur en mémoire, ce qui réduit fortement la taille des fichiers et accélère les calculs sur de gros volumes. D’autre part, les utilisateurs finaux consomment ces données via des tableaux croisés dynamiques connectés au modèle, sans manipuler directement les tables brutes. Vous minimisez ainsi le risque d’erreur tout en offrant une grande liberté d’exploration : un simple glisser-déposer permet de croiser les dimensions, de filtrer par période, par segment, par zone géographique.
Pour tirer pleinement parti de Power Pivot, il est essentiel de soigner votre table de dates, d’utiliser des clés entières pour les relations et de limiter le nombre de colonnes inutiles chargées dans le modèle. Vous pouvez voir ce modèle de données comme un étage supplémentaire de votre architecture : les fichiers Excel ne se contentent plus de stocker des listings, ils embarquent un véritable cube analytique. C’est souvent la passerelle idéale vers des outils de BI plus complets comme Power BI, vers lesquels il sera ensuite très simple de migrer en conservant la même logique de modèle et de mesures DAX.