Les directions financières du secteur de l’assurance font face à des besoins de plus en plus marqués en termes d’efficience opérationnelle et de renforcement du pilotage de la performance. Le contexte économique incertain nécessite un suivi très régulier et un pilotage fin des indicateurs d’activité, de frais, du résultat et de la solvabilité. Les nouvelles réglementations, en particulier IFRS 17, génèrent une exigence croissante d’excellence opérationnelle et un besoin d’indicateurs de pilotage pertinents et synthétiques, face à la quantité d’informations produites.
Comment être réactif pour produire des KPI à fréquence régulière et faire preuve d’agilité en proposant des solutions automatisées et agiles, des formats adaptables ? Comment disposer de différents niveaux de lecture en fonction des interlocuteurs (COMEX, direction financière, équipes de la direction financière) ? Comment organiser les données pour une data visualisation pertinente ?
Les consultants de SeaBird ont identifié 2 étapes et 3 conseils méthodologiques pour sélectionner, visualiser et analyser l’information utile pour le pilotage, et pour concevoir les indicateurs pertinents et adaptés aux enjeux stratégiques et opérationnels de l’entreprise.
Étape 1 – Cadrer le projet : analyser l’existant et définir l’attendu
Avant de penser aux résultats et au design du reporting, la première étape consiste à prendre du recul et analyser l’écosystème de travail qui alimentera le processus de restitution.
Cette étape de cadrage assurera de précieux gains d’efficacité dans la suite du projet et une pérennité dans le processus.
Indicateurs
Ce projet de pilotage de la performance s’adresse à des utilisateurs internes (COMEX, DAF etc.) ou externes (Ex. Autorité de contrôle).
Les questions à se poser :
- Dans quelle mesure les indicateurs (évolution des charges sinistres, des frais généraux, du chiffre d’affaires, du résultat financier etc.) répondent-ils aux besoins de pilotage économique de l’entreprise ? Sont-ils adaptés aux besoins des utilisateurs ?
- Dans quelle mesure les visuels proposés permettent-ils de saisir rapidement l’information clé ?
- Dans quelle mesure les informations proposées permettent-elle un pilotage intégré, faisant notamment le lien entre pilotage des frais généraux et évolution de l’activité ?
- Permettent-ils des comparaisons sur plusieurs axes temporels (ex. exercice comptable vs survenance réelle pour l’analyse de la sinistralité) visant à confronter le réel aux prévisionnels ? Intègrent-ils une vision pluriannuelle de l’évolution ?
- La granularité des indicateurs et leur fréquence semblent-elles cohérentes pour éclairer le pilotage et cibler les actions de redressement de la rentabilité ou de la solvabilité (ex. mise en place d’actions de redressement sur les segments déficitaires) ?
L’enjeu est ici de comprendre les attentes des destinataires des KPI pour ajuster au mieux les propositions d’indicateurs et de reportings. L’observation des pratiques de marché constitue également un axe d’analyse éclairant pour cibler les actions à mener.
Les données
Le cœur du projet réside dans l’accessibilité et la qualité des données.
Des ateliers permettent de spécifier les méthodes de création des fichiers et de mettre en lumière les potentiels points de difficulté à prendre en compte.
Les question à se poser (liste non exhaustive) :
- Le socle de données est-il adapté et fiabilisé pour permettre des projections pertinentes et un pilotage de la performance adéquat ? Quelles sont les données disponibles aujourd’hui ?Quelles sont celles qu’il serait utile de récupérer ?
- S’agit-il de données brutes (sans altération manuelle) ou de données retraitées ?
- Quels formats de données / outils devront être manipulés ? (Excel, csv, txt, pdf, base Oracle, base SQL, SAS, autres)
- Quelles sont les parties « fixes » et les parties « variables » des données ? (noms de colonnes, d’onglets, structure et nom des fichiers, etc.)
- Quelle(s) temporalité(s) dans les bases de données et comment sont gérées les mises à jour mensuelles ?
- Quel service fournit ces données et selon quel processus ?
- Combien d’équipes prennent part à la collecte des données nécessaires ? quelles sont leurs contraintes (technique, agenda, compétences, etc.) ?
- Quelle est l’architecture des systèmes autour des données et des flux associés ?
Des chantiers d’accès à la donnée et de fiabilisation peuvent être lancés pour renforcer le socle de données réelles.
Les outils
Avant d’automatiser, il est nécessaire de sélectionner l’outil adapté au besoin. Première étape : identifier les outils disponibles au sein de l’entreprise (notamment auprès de la DSI) pour examiner toutes les solutions techniques déjà disponibles. Deux types d’outils sont nécessaires :
- Un outil de data management, qui permettra une homogénéisation et une standardisation de tous les fichiers de données à gérer et aménager. L’idéal est de disposer d’un outil capable de réaliser un ensemble de traitements de données simplifiés (KNIME, DataIku, Alteryx, SAS Guide, etc.). Les outils de programmation classiques (SAS, Python, R, VBA, etc.) peuvent aussi convenir.
- Un outil de data visualisation adapté et utilisable par vos équipes. En fonction des besoins, un outil de marché, comme Power Bi ou Tableau, permettra de mettre en forme les données et de créer un dynamisme dans leur analyse (avec la possibilité de réaliser du traitement de données via des requêtes). Il est également possible de créer des reportings avec des outils de programmation. Encore faut-il disposer des compétences pour les créer et surtout les maintenir !
Téléchargez notre benchmark : « Quelle solution pour une réconciliation de données efficace ? »
L’association de l’outil de data management et de l’outil de data visualisation assurera la sécurisation et la flexibilité de la solution. Nous recommandons d’utiliser cette approche dans un premier temps.
Il est également possible de réaliser les étapes de data management directement au sein de l’outil de data visualisation. Cela nécessitera de maîtriser le langage natif de l’outil qui, le plus souvent, est une compétence spécifique.
Etape 2 – Concevoir opérationnellement la solution, construire une feuille de route raisonnable
Sur la base des données utilisables identifiées, il s’agit à présent de construire les spécifications du reporting. En gardant à l’esprit les impératifs de délais mais aussi la faisabilité.
- Cibler d’abord les indicateurs qu’il est possible de construire tout de suite (données disponibles) ou sur un temps relativement court (données non disponibles à date mais accessibles facilement).
- Déterminer les éléments manquants pour le reporting cible.
- Lotir les actions auprès des équipes concernées pour mettre en place tous les mécanismes d’accès à la donnée :
-
- Nouvelles extractions,
- Sollicitation de nouvelles équipes,
- Modifications du SI,
- Modification du processus de gestion pour capter de nouvelles données,
- Impacts sur le processus de collecte.
De manière transverse, trois bonnes pratiques facilitent la mise en place de ces reportings pertinents, fiables et digitalisés.
Conseil 1 : fixer les besoins du reporting
Un reporting statique ou dynamique répondent à des objectifs différents et ne posent pas les mêmes difficultés de mise en œuvre. Les utilisateurs finaux doivent se prononcer sur ce point dès le début du projet.
Un reporting statique se rapproche d’une présentation Power Point réalisée avec un autre outil. Son point fort : le gain de temps, et aussi de réactivité ! Il suffira de charger de nouveaux inputs pour recréer une présentation complètement modifiée.
Un reporting dynamique offre l’opportunité d’une solution plus agile permettant différents niveaux de profondeur dans l’analyse : zooms sur certains produits, filtres dynamiques ou encore changement d’horizon temporel.
Il n’y a pas de mauvais choix dans l’absolu. La décision tient aux besoins des consommateurs de ces graphiques pour favoriser l’adoption du reporting, faire en sorte qu’il soit proportionné aux besoins des utilisateurs et favoriser sa pérennité à des fins de pilotage.
Conseil 2 : réaliser le reporting en mode agile
Il est essentiel de disposer d’éléments de cadrage pour initier l’implémentation du reporting dans la bonne direction. Procéder en mode agile permet ensuite de répondre au mieux aux besoins en évoluant par itération.
Des ateliers fréquents pour visualiser les graphiques vont permettre d’ajuster le rendu :
- Type de graphique,
- Filtres proposés,
- Paramètres de sélection de phases (ex. : budget, estimé, réel) et dates.
Certains graphiques peuvent être complexes à mettre en place pour diverses raisons (données, croisement de dimensions d’analyse, etc.). Les ateliers de présentation permettront de mettre en lumière les points de blocages, de s’assurer de la bonne compréhension du graphique attendu et de statuer sur les évolutions.
Conseil 3 : amener le changement en interne
Cette bonne pratique suppose la mise en place d’une communication adéquate (autour des impacts positifs mais aussi des points d’attention) et la prise en main au sein des équipes.
- Valoriser l’impact positif du recours à la datavisualisation et de l’automatisation du reporting :
- Un reporting sécurisé, digitalisé et flexible permettant différents niveaux de lecture et apportant les éclairages chiffrés nécessaires au pilotage de la performance de l’entreprise,
- L’adhésion de différents niveaux d’interlocuteurs au reporting,
- Des gains de temps significatifs sur la livraison des reportings,
- La traçabilité des transformations appliquées aux données (auditabilité) et la réduction du risque opérationnel,
- La publication et l’archivage des présentations facilités.
Il faut bien garder à l’esprit que le reporting se situe en fin de chaîne : la qualité des données et leur accessibilité facilitera grandement l’utilisation des outils de data visualisation, leur acceptation et favorisera également la montée en compétences. Des outils comme Power BI peuvent se connecter à de nombreuses sources de données permettant ainsi de supprimer des étapes d’extractions et tendre vers un processus sans coutures.
- Prévoir la prise en main du rapport par les équipes utilisatrices
Une formation flash en fin de projet aux référents techniques atteint vite ses limites. Un rapport automatisé dans un outil de data visualisation s’appuie sur un bon nombre de manipulations et de calculs sur les données qu’il faut connaître pour répondre à deux enjeux majeurs qui surviennent rapidement :
- Une anomalie dans la mise à jour du nouveau reporting, qui empêche de fournir les résultats attendus. Les équipes doivent être en mesure d’analyser les différentes pistes pour apporter la correction nécessaire.
- Une évolution du reporting, pour suivre au mieux le business de l’entreprise : focus sur un événement (effet Covid par exemple), filtre sur un périmètre précis ou ajout d’un nouvel indicateur. Il faut prévoir l’ajout de nouveaux éléments qui seront intégrés à l’existant, de manière tout aussi automatisée.
Pour éviter la perte de connaissance, il est important de favoriser la montée en compétences tout au long de la phase de cadrage du projet et de développement. L’idéal consiste à déterminer un référent métier, en charge de suivre le sujet.
Ce projet s’accompagne également d’une gestion du changement en interne : diffusion de la culture du pilotage économique et prise en main de l’outil.