Business Intelligence : L’innovation est-elle en panne ?

Après le choc de la fin des années 2000, la décennie 2010 a vu l’émergence de la Business Intelligence agile, et de concepts tels que la mobilité, la visualisation graphique, la mise en récit des données, le langage naturel, l’analyse prédictive. Mais depuis quelques temps, le rythme d’innovation semble se ralentir. C’est en tous cas la perception de nombreux analystes et utilisateurs. Sommes-nous parvenus à la fin d’un cycle ? Sur quoi devraient travailler les éditeurs de logiciels pour reprendre l’initiative ?

Il y a une dizaine d’années, le monde des outils de Business Intelligence était en pleine révolution. Petit retour en arrière. Nous sommes en 2008, et une vague de rachats sans précédent touche le secteur des outils de reporting et d’analyse de données. Comme l’analysait à l’époque Michael Albo, les rachats se sont enchainés : dont les plus importants ont été, Hyperion par Oracle, Business Objects par SAP et Cognos par IBM. Entre temps, beaucoup de plus petits fournisseurs avaient déjà été avalés.
La décennie 2010 s’ouvre donc avec un nouveau décor : un marché des outils de reporting devenus des commodités et intégrés aux grandes plates-formes ; de rares indépendants, Microstrategy ou Information Builders, dont on se demandait chaque semaine quand ils allaient être rachetés, et qui finalement sont toujours là dix ans après ; et surtout de nouveaux fournisseurs, dont la croissance s’est appuyée sur la concentration précédente, Qlik et Tableau par exemple.

Une décennie riche en progrès pour l’utilisateur

Les « stars » de cette intelligence d’affaires en libre-service sont Qlik, Tableau, TIBCO Spotfire, Microsoft PowerBI essentiellement. A eux seuls, ils détiennent la majorité du marché mondial. La plupart existait avant 2008, mais c’est l’espace laissé vacant par les rachats des outils de reporting qui leur a permis de gagner d’importantes parts de marché, auprès des utilisateurs métiers.

Beaucoup de progrès ont été faits durant la décennie et les outils de « self-service BI » se sont imposés, de gré ou de force, dans les entreprises. Ils ont modifié l’organisation, la répartition des rôles, et soutenu l’émergence de l’économie des données dans laquelle nous sommes plongés. Sans ses outils, et leurs capacités d’analyse et de représentation graphique, il serait impossible de prendre autant de décisions quotidiennes, basées sur les données.

Les grandes fonctions que l’on a vues se développer durant la décennie sont :
- L’extrême simplification des interfaces utilisateurs : alors qu’il fallait un informaticien pour chaque évolution de rapports Business Objects et Cognos, manipuler aujourd’hui les outils de BI agile est à la portée de tout utilisateur d’Excel.
- La représentation graphique a trouvé sa place, non comme un accessoire, mais au cœur de la navigation dans les données. Dans Tableau, Qlik, Spotfire, elle est un point d’entrée et de découverte des données.
- L’intégration avec des fonctions avancées de modélisation ou d’analyse prédictive, au travers de fonctions ou de saisie de code Python ou R.
- L’accès, plus ou moins complet, aux données et aux analyses en situation de mobilité, au travers de téléphones et de tablettes.
- En revanche, la plupart de ces solutions restent conçues pour un usage individuel, ce qui a fait leur succès. Elles ont toutes développé des extensions « serveur », mais sont moins bien intégrées aux plates-formes d’entreprises que les outils de reporting qui les précédaient.
Mais voici que depuis environ un an, les questions se multiplient sur le futur des outils de Business Intelligence et l’absence relative d’innovation depuis ces deux dernières années.
Alors que se passe-t-il ? Simple trou d’air après des années de nouvelles fonctionnalités ? Ou véritable fin de cycle qui va nous obliger à inventer la prochaine étape à partir de la feuille blanche ?

Ce qui laisse une impression d’inachevé… et pourrait être amélioré

Bien sûr, il reste possible d’enrichir le vocabulaire graphique de tous ces outils, et ajouter encore de nouveaux modèles. Mais ils ne concerneront que quelques utilisateurs très avancés. Le niveau général atteint par les grands logiciels cités plus haut est excellent. Les différences entre les outils relèvent plus de l’ergonomie que des fonctionnalités clefs. Bien sûr, la plateforme éventuellement retenue par le client pourra l’orienter vers un outil de BI. Ainsi une entreprise qui aura misé sur la plateforme Microsoft pour ses bases de données aura tout intérêt à choisir Power BI comme outil d’analyse.

Conjuguer l’analyse en libre-service et la gouvernance des données

C’est sans doute le point le plus délicat constaté sur l’ensemble des projets, dans l’ensemble des organisations. Plus les utilisateurs sont autonomes, plus ils analysent leurs données, et plus les règles de gouvernance des données sont bafouées ou ignorées. L’exemple le plus flagrant est l’application du RGPD. Alors qu’il concerne bien sûr l’ensemble des données personnelles de l’entreprise, le plus souvent les fichiers extraits par les analystes métiers, conservés sur leurs postes de travail, dans des répertoires partagés, ou stockés dans un data lake, ne sont pas connectés à la base de consentements, ne sont pas cartographiés, et les traitements réalisés ne sont pas référencés dans le registre des traitements.
Par ailleurs, les données de référence sont souvent ignorées des applications décisionnelles, tout comme la génération automatique des métadonnées qui permet de garder la trace de l’ensemble des modifications.
A ce jour, la combinaison de l’agilité des analyses en libre-service avec les données stockées dans les nouveaux espaces de stockage (NoSQL, Hadoop, etc.) ne respecte absolument pas les règles légales et de gouvernance des données personnelles et des données de référence.
Attention, cela ne doit pas être reproché aux seuls outils de BI ; mais à la fois au manque de prise de conscience des utilisateurs, et à la faiblesse des solutions de BI agile en matière d’administration des données.

Aller plus loin en matière de mise en récit des données

Tableau, mais également Qlik et Microsoft, ont développé des outils permettant de mettre en récit les données présentées par les utilisateurs. Mais après avoir investi plusieurs années de recherche sur le sujet, le résultat semble incomplet. L’idée d’inclure l’outil de présentation dans l’outil de BI est intéressante. Mais les versions actuelles proposées sont encore grandement insuffisantes. Il manque de nombreuses fonctions de base des outils de présentation, et il n’existe actuellement aucun outil d’aide à la conception des présentations ; c’est-à-dire d’assistance à la mise en œuvre d’une méthodologie de mise en récit des données. Or depuis deux ans environ, les éditeurs concernés semblent avoir abandonné le développement de nouvelles fonctions de data storytelling. C’est dommage !

Poser des questions en langage naturel

Popularisée par Apple Siri, Amazon Alexa ou encore Google Home, la reconnaissance vocale est maintenant combinée à la compréhension des questions posées, afin de servir d’interface à votre outil décisionnel. Peut-être les prochaines générations de professionnels préfèreront-elles parler à l’ordinateur… mais pour les analystes actuels c’est une perte de temps. Tout comme si cet article était dicté à un ordinateur. Le processus de création d’un contenu (un article tout comme une requête), est la connexion entre la pensée et l’expression de ce besoin au travers des doigts qui se déplacent sur le clavier. Les deux vitesses sont coordonnées. Si l’on remplace l’expression au clavier par l’expression orale, l’ensemble du processus est à ré-apprendre. C’est pour cela que l’usage actuel de ces solutions de langage naturel ne nous semble pas… naturel… Et que la plupart des utilisateurs reviennent au clavier. Là encore, nous ne sommes qu’au milieu du gué, et les éditeurs de logiciels doivent encore largement améliorer leurs solutions.

Connecter les décisions au système opérationnel

Nous revenons ici un peu à la première remarque concernant la gouvernance. Les outils décisionnels ont besoin d’être connectés aux outils opérationnels. On passe de l’aide à la décision à la prise de décision automatisée. C’est ce que l’on appelle l’automatisation des processus (RPA). Mais pour cela, à la fois pour des raisons de sécurité et de gouvernance, ces outils décisionnels doivent être encadrés, et leurs résultats ne peuvent pas être directement transformés en décision sans un minimum de contrôle. Ce contrôle ne plait pas aux utilisateurs, qui y voient un retour en arrière dans leur agilité. C’est pourtant indispensable. Et lors des discussions en entreprises, il est à la fois inquiétant et triste de constater que les difficultés de communication entre direction informatique et directions métiers, ne se sont pas beaucoup améliorées depuis plusieurs décennies. La création de directions « data », la nomination d’un CDO (Chief Data Officer) parfois concurrent volontaire ou involontaire du CIO, la mise en place d’une stratégie d’entreprise orientée données, tout cela ne peut se faire sans coordination. L’agilité des outils de BI est un atout essentiel, mais peut être un frein à la mise en œuvre de bonnes pratiques. Les éditeurs devraient se préoccuper autant du déploiement de leurs solutions en entreprise que de la conquête de nouveaux utilisateurs.

Alors, cette innovation est-elle en panne ? Avons-nous atteint la fin d’un cycle ? Ou les éditeurs de logiciels peuvent-ils encore améliorer certains points ?
Qu’en pensez-vous ? Utilisateurs et fournisseurs, les commentaires vous sont ouverts. A condition qu’ils soient constructifs, et pas simplement « mon produit est le meilleur du monde »… cela fait longtemps que les utilisateurs n’y croient plus !