Les crises financières successives des années 2000 ont mis en évidence une prise de risques incontrôlée des banques et une faiblesse coupable de la culture prudentielle (« réagir au lieu d’anticiper »). La contamination des actifs des banques européennes par la titrisation de prêts subprimes américains en est le meilleur exemple. A ce titre, et dans une optique de régulation contraignante, les régulateurs européens ont requis le reporting régulier de données risques. Concrètement, il est demandé aux banques européennes d’être capable de fournir en un temps limité des données exactes et complètes dans le cadre des processus de production de reporting propres à chaque banque. Il s’agit dans un premier temps de « soigner » la donnée et de la restituer en bon état.

Sur le chemin de l’automatisation réglementée et de la « dataïsation » des métiers

Restituer une donnée en bon état exige qu’on ne l’altère pas lors de son extraction, qu’on ne la retraite pas une fois sortie des bases utilisateurs. Par conséquent, et sur la recommandation du comité de Bâle (la norme BCBS 239 sur le reporting et l’agrégation des données Risques est passée par là), l’automatisation est devenue la perspective commune à toutes les banques et pour tous les reportings réglementaires à des fins de surveillance des risques. Les éventuels retraitements de données, en plus d’être expliqués, doivent échapper aux mains des analystes et passer entre les lignes de code d’un programme automatisé, répondant parfaitement aux exigences.

Par ailleurs, l’exploitation automatisée de la donnée s’appuie aujourd’hui sur les moyens traditionnels de « Business Intelligence » ou BI (c.-à-d. un dispositif global d’outils software permettant à chaque collaborateur, au prix d’une formation accessible, d’extraire de visualiser et d’analyser avec souplesse et rapidité un jeu de données). Elle est le fait généralement d’équipes spécialisées dans la Data, ce qui « libère » l’analyste. Mais peut-on avancer l’idée qu’à l’avenir, tous les analystes devront être capables d’exploiter par eux-mêmes la donnée ? Incontestablement oui, dans un souci d’agilité opérationnelle et d’efficacité (ils pourront prendre des décisions rapides sans dépendre du temps disponible des équipes Data). Cela implique une diffusion large de la culture Data et de l’automatisation, demain à la portée de tous. Dans cette optique, même les plans de contrôles seront automatisés par les analystes directement.

Un tel horizon exige sur le plan technique l’achat de licences pour les outils BI mais surtout le développement d’outils internes dont les fonctionnalités seront adaptées aux besoins exprimés par l’utilisateur. Sur le plan humain, des formations opérationnelles sur ces outils et la transmission d’une connaissance soft des infrastructures SI locales seront nécessaires pour assurer la transition entre deux époques qui se suivent implacablement.

Le Big Data pour anticiper et pour valoriser l’immense masse de données en augmentation exponentielle

Parmi les exigences des régulateurs, outre l’automatisation dont il est question plus haut, les banques pourraient rapidement être obligées de fournir des données sur un historique « très long ». Que signifie « très long » ? Difficile à dire, la surveillance prudentielle ne datant que d’une dizaine d’années. Mais, il est tout à fait plausible d’imaginer à l’avenir les régulateurs demander des données risques sur 10, 15 ou 20 ans, non seulement à un niveau agrégé, mais aussi à un niveau très granulaire (facilité élémentaire ou facture). Le reporting AnaCrédit, mis en place par la Banque Centrale Européenne à partir de 2018, est l’une des premières exigences réglementaires de ce type puisqu’il sera au niveau contrepartie et facilité et concernera, pour toutes les banques de la zone euro, tous les prêts accordés aux clients ayant au moins 25K€ d’encours (seuil de matérialité par tiers très bas donc de très fortes volumétries à extraire, stocker, analyser, suivre). Le dispositif traditionnel (c.-à-d. un gros server stocke et traite toutes les données) exploité par le BI pourrait ne pas suffire à stocker et traiter une quantité aussi importante de données.

Un dispositif orienté Big Data sera plus à même de résoudre cette problématique de volumétrie et de temps de traitement. Evidemment, cela implique un investissement pour l’acquisition de servers qui viendront en addition du server existant, et une revue de l’infrastructure SI. Chaque server stockera une partie des données et gérera les traitements propres à ce jeu de données. Plusieurs servers indépendants tourneront simultanément.

Au-delà de l’aspect technique, un tel dispositif permettra de fournir rapidement un historique de données long et contribuera à affiner l’analyse des risques et la surveillance. Il sera par exemple possible de trouver des corrélations, sur un temps très long, entre le type de produit et le passage en défaut ou encore entre la diversité des secteurs d’activité d’une contrepartie et ses mouvements de rating. Il sera aussi possible d’affiner l’analyse des risques sur les clients Particuliers en ouvrant les Classes Homogènes de Risques ou CHR : au sein des banques, il est souvent difficile de manipuler et d’analyser nominativement les clients particuliers, par définition beaucoup plus nombreux que les entreprises, en raison de la quantité exceptionnelle de lignes nécessaires pour tout reporter. Ainsi, des classes homogènes de risques sont créées, regroupant des clients de même niveau de risque. L’analyse n’est alors pas nominative (niveau client) mais porte sur des axes plus macroéconomiques (pays, secteur, produit. Affiner l’analyse est aussi possible en « libérant les électrons de l’atome ». Le Big Data contribuera alors à une analyse beaucoup plus fine et plus rapide d’une masse immense de données Risques des banques.

Avec les outils Big Data, on peut même imaginer une analyse prédictive pour anticiper les risques et prendre des mesures plutôt que de corriger les phénomènes qui auront déjà détruit de la valeur. C’est toute la culture prudentielle qui se trouverait renforcée.

Le retard des banques en termes d’équipements et d’infrastructures est une réelle opportunité pour les cabinets de conseil, notamment ceux regroupant l’ensemble des expertises nécessaires pour conduire les changements qui se préparent. Wavestone, avec son double passé dans la connaissance métier et l’expertise fonctionnelle et technique, a les moyens d’accompagner sur le long terme les grands groupes bancaires, de la conception de la solution à son déploiement opérationnel. Le Big Data aura également son mot à dire dans la nouvelle approche commerciale des banques de détail vis-à-vis des particuliers et de leurs données personnelles toujours plus nombreuses. Mais c’est un autre sujet…