La self-service BI change la donne pour les entreprises en permettant aux utilisateurs de prendre en main leurs propres données. Cette approche promet une prise de décision plus rapide et plus autonome mais n’est pas sans défis. Les LLM (Large Language Model) peuvent en partie y répondre et nous verrons comment !
La self-service BI
La self-service BI, donne aux utilisateurs métier la capacité de générer, analyser, visualiser et interpréter leurs données de manière autonome, sans assistance technique.
Elle vise a répondre à deux principaux cas d’usage :
- Fournir des réponses rapides et précises sur la base des données de l’entreprise
- Accéder et explorer librement ces données
Les avantages attendus
(merci ChatGPT)
- Autonomie accrue : Les utilisateurs métier peuvent accéder et analyser les données de manière autonome, sans avoir besoin d’assistance technique constante, ce qui réduit les délais et accélère la prise de décision.
- Réactivité améliorée : La self-service BI permet des cycles d’analyse plus rapides, ce qui permet aux entreprises de répondre plus rapidement aux changements et aux opportunités du marché.
- Démocratisation des données : En rendant l’analyse accessible à un plus large éventail d’utilisateurs, la self-service BI favorise une culture d’entreprise axée sur les données, où les décisions sont prises en fonction de faits plutôt que d’intuitions.
- Réduction des coûts opérationnels : En éliminant ou en réduisant la dépendance à l’égard des équipes spécialisées pour chaque demande d’analyse, la self-service BI réduit les coûts opérationnels et libère des ressources pour d’autres initiatives stratégiques.
- Innovation et agilité : La self-service BI encourage l’innovation en permettant aux utilisateurs de tester de nouvelles idées et hypothèses rapidement, ce qui favorise une culture d’entreprise agile et réactive.
Les limites constatées et le futur rôle des LLMs
Dans la réalité il est souvent complexe pour toute une partie des utilisateurs métier de s’aventurer au delà des rapports réalisés dans votre outil de Dataviz préféré (Excel on te voit).
De plus, la donnée ainsi récupérée peut rester difficile à appréhender sans les bons réflexes de data analyst et peut mener à une mauvaise compréhension et donc à de mauvaises décisions.
Ainsi, l’intégration de LLM entre vos utilisateurs et la donnée mise à disposition peut permettre :
- d’offrir à vos utilisateurs la capacité de requêter la donnée en langage naturel (“Quel est le chiffre d’affaire du mois dernier ?”, “Est-il meilleur que celui de l’année dernière ?”, “Quel est le prévisionnel de ventes sur la région parisienne à la fin de l’année ?”)
- de masquer la complexité de vos modèles de données
- de faciliter son adoption en l’intégrant dans les outils du quotidien (TEAMS ou Slack par exemple)
Est-ce à dire que votre LLM préféré va mieux analyser vos données que vos utilisateurs ? Pas sûr…
La couche sémantique, l’intermédiaire incontournable ?
La couche sémantique, loin d’être un concept récent, revient en force dans les discussions et les approches “Modern Data Stack” en tant qu’interface ou intermédiaire entre les utilisateurs finaux (ou votre LLM) et les données mises à leur disposition. Vous pouvez en trouver un bon exemple chez notre partenaire dbt Labs (https://www.getdbt.com/product/semantic-layer).
Son but est de simplifier la complexité des données sous-jacentes en fournissant des modèles logiques qui reflètent le langage et les concepts métier de l’entreprise. Et ainsi être le support des requêtes en langage naturel.
De plus, elle joue un rôle crucial dans la gouvernance des données, en assurant la qualité, la cohérence et la sécurité des données.
Un dernier mot pour conclure
On ne le répètera jamais assez, tout ceci part du postulat que vos données sont propres, fiables et sécurisées.
Votre premier chantier reste donc la construction et la gouvernance de votre (moderne) plateforme data.
Et vous, où en êtes-vous de cette approche self-BI augmentée par l’IA ?