L’INFLUENCE DU « BIG DATA » SUR LE CONTRÔLE DE GESTION Sabrine Lynda ZAIDI Cent
L’INFLUENCE DU « BIG DATA » SUR LE CONTRÔLE DE GESTION Sabrine Lynda ZAIDI Centre d'études et de recherche en droit des affaires et de gestion – EA 1516 (CEDAG) Université de Paris (France) RÉSUMÉ: Cet article présente les effets salutaires et pernicieux du Big Data en contrôle de gestion, permettant de contribuer aux recherches actuelles autour de ce thème. Nous suggérons que le Big Data et les techniques d’analyse qui en découlent, permettent aux contrôleurs de gestion d’agir sur les informations structurées et non structurées, en collectant des données internes et externes à l’entreprise, dans le but d’obtenir des avantages compétitifs. En outre, le Big Data pourrait accentuer les tâches du contrôleur de gestion pourvoyeur d’informations, que celui de Business Partner et conseiller auprès des opérationnels. Mots-clés: Big Data, Big Data Analytics, 3V, Contrôle de gestion, Business Partner. INTRODUCTION Le développement des technologies de l’information et de la communication a permis l’émergence de nouveaux outils de modélisation et d’analyse en matière de contrôle de gestion. Parmi ces nouvelles technologies, le Big Data. Le Big Data est appréhendé comme étant « l’huile numérique d’aujourd’hui » (Yi et al., 2014). En effet, en raison du développement rapide de plusieurs technologies de l'information, de grandes quantités de données peuvent être collectées. Les données numériques sont aujourd’hui perçues différemment et avec plus de recul. Elles sont en effet, le nouveau dogme en matière d’information, d’informatique et de nouvelles technologies. Elles sont à cet effet, considérées comme le « carburant » et le moteur des services et activités professionnelles utilisant des technologies novatrices récentes en l’occurrence, l’information cognitive, l’Internet des objets, l’intelligence artificielle et l’apprentissage automatique. Dans cette perspective, le phénomène de Big Data a pris une ampleur telle que son poids était estimé à 200 milliards1 de dollars en 2020. La notion protéiforme de Big Data ne connait aucune définition standard, uniforme et universelle (Hadjipavlou, 2016 ; Goes, 2014 ; George et al., 2014 ; Gupta, 2014). Le Big Data nous interpelle au premier plan, sur la problématique relative au volume et à la complexité des grandes données et plus spécifiquement, ce « déluge informationnel » qui conduit fatalement à redéfinir la société de l’information au vu de la tendance à l’augmentation des données stockées. Hadjipavlou (2016) évoque quant à elle, une « infopllution » ou « pollution informationnelle ». Selon Hopkins et Evelson (2011), « l’expression « Big Data » fait ainsi référence aux technologies, processus et techniques permettant à une organisation de créer, manipuler et gérer des données à grande échelle ». Du point de vue de Davis (2014), le Big Data se compose « de vastes collections de données (gros volumes) mis à jour rapidement et fréquemment (vitesse élevée) et qui présentent une énorme gamme de formats et de contenus différents (grande variété) ». Plusieurs auteurs à l’instar de Coron (2019), Gandomi et Haider (2015), Gupta et al., (2014) corroborent les caractéristiques de la notion de Big Data en s’appuyant également sur les trois V (volume, variété et vélocité). Le volume fait référence à la taille des données supérieure à des téraoctets et pétaoctets, la variété présente l’hétérogénéité des données et la vélocité correspond à la vitesse de collecte, de traitement et d’analyse des données en temps réel. Néanmoins, la définition des 3V ne faisant pas l’unanimité (Davenport, 2014 ; Bastin et Tubaro, 2018), certains auteurs lui ont ajouté d’autres V : véracité, valeur, variabilité ou encore visualisation. Dans cette perspective, la véracité fait référence à la qualité et la fiabilité des sources de données, la valeur correspond à l’utilité des données une fois analysées, la variabilité fait référence à la présence d’incohérences dans les données, et enfin la visualisation fait référence à l’interprétation des modèles et des tendances présents dans les données (Seddon et Currie, 2017). Selon Rikhardsson et Yigitbasioglu (2018), le Big Data constitue potentiellement un formidable outil au service des contrôleurs de gestion. Pour rappeler la notion de contrôle de gestion, il s’agit d’ « un processus par lequel les managers obtiennent l’assurance que les ressources sont obtenues et utilisées de manière efficace et efficiente pour la réalisation des objectifs de l’organisation » (Anthony, 1965). En effet, le contrôle de gestion demeure un outil majeur de pilotage de la performance d’une entreprise, il collecte et analyse 1 Tasset M., 2019, « Le volume de données mondial sera multiplié par 45 entre 2020 et 2035 », Consulté à l’adresse : https://bit.ly/2MtTbsR les résultats obtenus et s’assure de leur adéquation avec les objectifs définis par l’entreprise. Le Big Data permettrait de croiser des données internes et externes pour identifier des corrélations et réaliser des prévisions et des prédictions, pour un meilleur pilotage de l’activité (Rikhardsson et Yigitbasioglu, 2018). Cependant, la littérature récente sur le sujet, suggère que le Big Data pourrait exacerber les tâches routinières du contrôleur de gestion, qui redeviendrait plus pourvoyeur d’information que Business Partner (Cavélius et al., 2020). Par conséquent, cet article vise à comprendre l’influence du Big Data sur le contrôle de gestion. La question de recherche est : dans quelle mesure le Big Data influence-t-il la fonction de contrôle de gestion. Nous commencerons par une évaluation des effets salutaires du Big Data sur le Contrôle de Gestion, et nous évaluerons ensuite les effets pernicieux qui en découlent. I. LES EFFETS SALUTAIRES DU BIG DATA EN MATIÈRE DE CONTRÔLE DE GESTION La fonction de contrôleur de gestion implique en premier lieu, la maîtrise de l’analyse de données structurées (dans des bases de données essentiellement internes) et non structurées provenant de divers canaux, afin d’expliquer la cause d’un problème identifié et de proposer des solutions pour y remédier (Richins et al., 2017). Cela étant, du point de vue de Bhimani et Willcocks (2014), les contrôleurs de gestion n’ont pas à être des experts techniques de l’analyse des données. Contrairement aux Data Scientists, qui possèdent des compétences de modélisation des données structurées et non structurées, internes et externes. Néanmoins, les contrôleurs de gestion doivent en saisir les nuances et comprendre ses opportunités et ses implications pour les informations financières qu’ils produisent. Les contrôleurs de gestion sont à cet effet, dépositaires d’un langage financier commun à l’ensemble des organisations et appréhendent l’analyse des mégadonnées ou « Big Data Analytics » pour la réalisation de leurs tâches traditionnelles (Sponem, 2018), ainsi que la modernisation des services financiers et ce, grâce à la panoplie des solutions proposées (Boutgayout, 2020). L’analyse du Big Data pourrait de ce fait permettre une meilleure compréhension et assimilation du modèle économique d’une entreprise à proprement parler, les inducteurs de coût ou les indicateurs de performance d’une division (Warren et al., 2015). L’analyse de données reposant sur du Big Data pouvant être réalisée conjointement par le contrôle de gestion, la comptabilité et le marketing (Sponem, 2018). Le Big Data Analytics constitue en pratique, un réel processus « d’inspection, de nettoyage, de transformation et de modélisation du Big Data pour découvrir et communiquer des informations et des modèles utiles, suggérer des conclusions et soutenir la prise de décision » (Cao et al., 2015) ainsi qu’un processus de « collecte, d’organisation et d’analyse du Big Data afin de découvrir, visualiser et afficher des modèles, des connaissances et intelligence, en plus d’autres informations dans le Big Data » (Sun et al., 2018). Choi et al., (2016) vantent les mérites des technologies Big Data Analytics modernes qui contribuent grandement à faciliter la génération, la collecte des données, l’extraction et l’utilisation d’informations utiles à partir des bases de données dynamiques et ce, par le biais des réseaux de capteurs, le cloud computing, l’Internet des objets (IoT) ainsi que la robotique (Madnick et al., 2009). L’analyse de données de masse est appréhendée comme une alternative aux solutions classiques de bases de données, sachant qu’elle a pour objectif d’analyser de grands volumes de données transactionnelles, ainsi que d’autres formes de données encore inexploitées par les programmes conventionnels d’informatique décisionnelle, en l’occurrence les plateformes de Business Intelligence en serveur SQL. Dans cette perspective, le Big Data représente une base diversifiée incluant des données internes et externes à l’entreprise, proposant une vision large et représentative de la réalité à juste temps. Les outils d’analyse de données de l’entreprise en temps réel, sans nécessairement aller au Big Data, relevant de la Business Intelligence, lui permettent ainsi de suivre son activité d’une manière efficace et efficiente. A contrario, de nombreuses entreprises se basent essentiellement sur des ERP ou des logiciels de Business Intelligence traditionnels, afin d’automatiser les processus et optimiser la gestion ; néanmoins, elles proposent une analyse figée dans le temps (en se basant sur un arrêté) et se concentrent uniquement sur leurs données internes avec des capacités de stockage et d’analyse limitées par le fait qu’elles résultent d’une saisie réalisée en interne par des salariés, avec une seule et unique finalité dominante : la mise en place de reportings, la production et l’analyse des indicateurs de performance. Le Big Data ne peut être appréhendé comme un outil « brut » pouvant évoluer seul. C’est ce qui légitime en pratique, son lien étriqué et étroit avec uploads/Management/ zaidi.pdf
Documents similaires










-
39
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Jul 14, 2021
- Catégorie Management
- Langue French
- Taille du fichier 0.1701MB