mercredi 21 septembre 2016

Les stratégies de transformation numérique gagnantes

La transformation numérique est un terme à la mode. Des CDO, Chief Digital Officer, sont nommés et des budgets sont affectés à des projets d’un type nouveau. Cependant, on constate, en ce domaine, une grande hétérogénéité des pratiques ([1]). Un premier groupe d’entreprises considèrent que les opérations de transformation numérique se ramènent à de nouvelles actions de marketing. Ce sera un nouveau moyen permettant de trouver de nouveaux clients. D’autres entreprises voient plus loin. Pour celle-ci les transformations numériques ont pour but de changer la nature de leurs offres qui va se traduire par de nouveaux produits ou des services, de nouvelles manières de les produire, ... Les entreprises traditionnelles cherchent à se transformer sur le modèle des GAFA. Cependant tout le monde sait que n’est pas Google qui veut ([2]).
Quelle que soit la vision que l’on ait de la transformation numérique les entreprises savent qu’elles doivent faire face à une mutation majeure. La manière de réaliser leur chiffre d’affaires et de dégager une marge significative vont profondément changer dans les années à venir. Les produits changent et comprennent de plus en plus d’électronique et de logiciels, se connectent et échangent des informations avec des serveurs. Mais ce n’est qu’une partie de la mutation. L’essentiel des changements vont porter sur la manière dont les clients entrent en contact avec l’entreprise comme c’est déjà le cas avec Uber ou Airbnb. Elles vont changer de nature et devenir des plateformes d’échange entre des demandeurs et des fournisseurs de service. Ceci explique la grande crainte manifestée par les entreprises traditionnelles de se faire « uberiser » c’est-à-dire de voir une start-up venue de nulle part prendre une partie significative de leur chiffre d’affaires et de leur marge.
En fait, on est face à une mutation stratégique. Pour comprendre son importance il est nécessaire de revenir sur les stratégies traditionnelles de développement des entreprises puis de voir leurs liens avec une éventuelle transformation numérique.

Les cinq stratégies de développement existantes

La plupart des entreprises ont des stratégies (Pour en savoir plus sur la stratégie des entreprises voir sur Wikipédia en cliquant ici). Lorsqu’on les analyse et on les compare entre elles on constate qu’elles ont de fortes parentées. Leur nombre est en fait assez limité. Il y a une trentaine d’année Michael Porter, pape du marketing, avait fondé sa célébrité en identifiant cinq forces expliquant la concurrence :
1.    Le pouvoir de négociation des clients,
2.    Le pouvoir de négociation des fournisseurs,
3.    La menace constituée par les produits ou les services de substitution,
4.    La menace d'entrants potentiels sur le marché,
5.    L'intensité de la rivalité entre les concurrents.
Il est de même possible d’identifier quelques grands axes stratégiques en matière de développement des entreprises. En reclassant l’ensemble des actions possibles il est possible d’identifier cinq grands axes (voir le détail des actions stratégiques en note ci-dessous [3] ). Ce sont :
1.     Augmenter les prix de vente. Il existe toute une série de mesures permettant de réussir cette stratégie. Elles sont dans l’ensemble assez restrictives. Un grand nombre d’actions cherchent à réduire la concurrence car celle-ci tend à faire pression sur les prix de vente. Le progrès technique a peu d’influence. La transformation numérique joue un rôle secondaire dans ce type de stratégie ([4]).
2.     Réduire les coûts de revient. Cette baisse concerne aussi bien les produits que les services. On va pour cela chercher à augmenter la productivité ou diminuer les prix d’achat des matières premières et le coût de la main d’œuvre. Il existe une large panoplie de mesures permettant de diminuer les coûts de revient. Le progrès technique n’est qu’un des facteurs possibles. Dans ces conditions la transformation numérique joue sur les coûts de revient mais de manière indirecte.
3.     Augmenter la taille du marché accessible. Cette stratégie repose sur la fidélisation des clients existants et la recherche de nouveaux clients. Ce peut être des clients locaux, nationaux ou internationaux. Internet abolie les distances. Pour les services immatériels le marché devient mondial, par contre, pour les biens et les prestations de services il est encore lié à des contraintes de logistique : il faut être capable de délivrer. C’est le cœur de la transformation numérique.
4.     Faire évoluer le produit et le service. Les innovations liées à Internet, à la micro-électronique et à l’informatique permettent de développer de nouveaux produits et surtout de nouveaux services. Des innovations majeures sont apparues dans ces domaines ces dernières années et il est probable que cela va continuer. Il est aussi possible d’enrichir des produits ou des services existants de manière significative. La transformation numérique joue un rôle important dans le cadre de ce type de stratégies.
5.     Personnaliser le produit ou le service. La technologie permet de sortir du « mass market » et de s’adresser directement à chaque client et à chaque prospect en lui faisant des offres personnalisées. C’est un progrès considérable du marketing qui va changer l’organisation du marché. C’est un domaine important de la transformation numérique.
Comme on le voit les modalités de la transformation numérique sont nombreuses et variées. Dans les années à venir elle va profondément influencer la manière de faire des affaires et, de façon plus générale, elle va permettre de changer de manière profonde dont s’établissent les relations entre les personnes et les organisations. Il existe pour cela toute une palette de mesures possibles, certaines sont simples et faciles à mettre en œuvre mais de nombreuses autres sont plus complexes et demanderons plus de temps pour se mettre en place.

La transformation numérique est au cœur des stratégies

Traditionnellement la stratégie des entreprises repose sur une réflexion du management sur les produits et les clients : que veut-on vendre et à qui va-t-on le vendre ? On en déduit les partenariats possibles, les choix technologies et les investissements nécessaires. Aujourd’hui cette réflexion repose en grande partie sur la manière de mettre en œuvre la transformation numérique. Plus personne n’a de doute sur sa nécessité. Mais comment s’y prendre ?
Pour y arriver il est nécessaire de partir de quelques constats simples. D’abord la transformation numérique repose sur un développement considérable des technologies informatique. Ainsi derrière la notion de Big Data il y a la technologie Hadoop qui permettent d’avoir des bases de données réparties de taille illimitées. De même derrière l’IoT, Informatique des Objets, il y a les progrès considérables de la micro-électronique notamment il existe aujourd’hui des ordinateurs de la taille d’une carte de crédit capables de supporter un système d’exploitation multi-tâches et des protocoles de communications puissants. La puissance et la souplesse d’Internet permet de déporter les traitements sur des serveurs banalisés grâce au Cloud. Ce sont des changements considérables.
Le développement de toutes les nouvelles applications induites par la transformation numérique va transformer que les entreprises en « software compagnies » ([5]). C’est un changement majeur dont on n’a pas encore perçu toutes les conséquences. En dehors du besoin de recrutement de milliers de développeurs et du changement de culture des entreprises on est face à des investissements massifs qui vont profondément modifier l’équation économique des entreprises.
Pour dégager des gains significatifs il va être nécessaire d’améliorer la capacité de l’entreprise à créer de la valeur ajoutée grâce à la transformation numérique. L’indicateur à suivre est donc le montant de la valeur ajoutée par salarié. Il est, en moyenne en France de, 80.000 euros par personne et par an mais il peut s’élever à 130.000 à 160.000 euros dans des secteurs particulièrement efficaces et performants. Une opération de transformation numérique qui n’a pas d’impact sur cet indicateur n’est, probablement, pas rentable.

Les stratégies de développement recourent de plus en plus à la transformation numérique

Dans ce contexte un nombre croissant d’entreprises ont mis en place des stratégies de développement reposant en grande partie sur l’informatique et le logiciel. Malheureusement, aujourd’hui ces « software compagnies » ne sont pas majoritaires, loin s’en faut ! Pour l’instant ces entreprises sont plutôt des start-ups. Quant aux entreprises traditionnelles, si elles craignent toutes une éventuelle « uberisation » pour l’instant elles restent au bord de la piscine à tâter la température de l’eau et s’interrogent sur la démarche à suivre. Pour aller plus loin elles vont devoir choisir une stratégie parmi trois possibilités différentes :
-       Personnaliser des produits ou des services. C’est le cœur de la transformation numérique. On assiste depuis quelques années un flux continu d’innovations. Le client veut être reconnu comme une personne. Lorsque vous vous connectez à un site Web il vous reconnait par un « Bonjour Jean Dupont » et vous fait des offres en fonction de vos centres d’intérêt. Mais il est possible d’aller plus loin. Ainsi, les opérateurs observent la navigation des utilisateurs sur Internet et leur faire des propositions adaptées. C’est le domaine du Big Data et du « reciblage publicitaire ». Cependant on ne peut pas dire que des publicités figurant dans les pages Web correspondent forcement à une amélioration des services fournis.
-       Faire évoluer les produits ou les services. C’est en grande partie le domaine de l’IoT, Internet des Objets. Ces applications sont nombreuses. Elles concernent principalement cinq domaines :
o   La maison connectée : la sécurité et la climatisation des domiciles, les systèmes de distraction, le management à distance des installations, ….
o   Les wearables comme les montres et les lunettes connectées, les vêtements connectées, les systèmes de fitness, les caméras portables, …
o   L’Internet industriel que les allemands appellent Industrie 4.0 comprend la robotique, l’automatisation, l’amélioration de la chaîne logistique, …
o   Les villes connectées ou Smart Cities comprenant la gestion de l’éclairage public, les compteurs intelligent d’électricité et de gaz, la gestion en temps réel des flux, la gestion des parkings, …  
o   Les véhicules connectés dont les voitures autonomes mais aussi le diagnostic des véhicules, la sécurité, la navigation, la gestion des flux, …
Comme on le voit l’IoT représente un énorme marché qui va considérablement se développer dans les années à venir. Cisco estime son chiffre d’affaires mondial 500 milliards de dollars en 2016 en forte croissance. L’Institut Montaigne et AT Kearney estime qu’en France il sera de 74 milliards d’euros en 2020 pour atteindre 138 milliards d’euros en 2025.
-       Réduire les coûts de revient. La recherche de gains de productivité est le domaine le plus travaillé par l’informatique classique. Elle a permis de contenir une partie des frais généraux des entreprises. Cependant on estime qu’elle a eu des effets plus limités sur les autres postes du coût de revient : matières premières, main d’œuvre, équipements nécessaires, énergie, ... Aujourd’hui la recherche de gains permis par la transformation numérique porte plutôt sur l’amélioration des processus comme la saisie et le traitement des commandes, la logistique, l’assemblage des produits, la fourniture de services, … Dans le passé il est certain que l’investissement en équipement et l’automation ont joué un rôle nettement plus important dans l’obtention de gains de productivité obtenus grâce à l’informatique. Est-ce que la transformation numérique va inverser cette tendance ? Ces dernières années le Web a permis de reporter la saisie des commandes sur les clients. Aujourd’hui l’IoT permet d’améliorer l’efficacité des processus d’assemblage de produits. Demain il est possible que ce soit dans le développement de la fourniture de services.
Il est certain que la transformation numérique va dans les prochaines années profondément changer le paysage économique, sans compter l’impact qu’elle aura sur le manière de vivre, de se distraire, d’éduquer les enfants, de former les adultes, … Il suffit de voir l’actuel impact des smartphones pour imaginer ce que sera le monde de demain grâce à la combinaison de l’IoT, du Big Data, du Cloud, … A cela s’ajoute l’impact de l’amélioration des performances du Web, de l’Internet, des systèmes d’exploitation, …. Aujourd’hui les décideurs des entreprises savent qu’il va falloir se jeter à l’eau mais ils ont encore du mal à mesurer les impacts de la transformation numérique sur la stratégie de leur entreprise.

Toutes les stratégies ne sont pas directement impactées par la transformation numérique

Cependant il ne faut pas pour autant penser que toute les stratégies des entreprises vont se résumer à la transformation numérique. Parmi les cinq types de stratégie identifiées trois sont directement concernés mais deux sont peu ou pas impactés par ces changements. Ce sont :
-       Augmenter la taille du marché. Le fait qu’en tout point du territoire (et même de l’étranger) il est possible de consulter un site Web n’a pas élargie considérablement le marché. Le fait qu’il soit possible de commander un livre du fin fond de l’Auvergne ([6]) alors que la première librairie se trouve à plusieurs heures de route n’a pas eu d’effet significatif sur le nombre de livres lus. Il a toujours existé un marché pour la vente par correspondance. Le développement du commerce électronique n’a pas encore fait disparaître les boutiques et les centres commerciaux. Au fait que les stratégies visant à augmenter la taille du marché ne seront que faiblement impactées par la transformation numérique. Il est probable que le Big Data permettra d’identifier des prospects qui avaient, jusqu’alors, été ignorés et de les solliciter par des offres ciblées. Mais il est aujourd’hui difficile de mesurer l’impact de ces stratégies de marketing.
-       Augmenter le prix de vente. Un dirigeant d’entreprise qui veut à court terme augmenter son chiffre d’affaires ou sa marge sait très bien que la première mesure à prendre est de majorer les prix de vente. Cependant il ne peut le faire que si la concurrence est faible. En période de forte inflation ou de pénurie c’était une stratégie usuelle. Mais au cours d’une période sans inflation avec une économie qui frise la déflation il faut regarder à deux fois avant de majorer ses prix. Ce sont des choix difficiles. En tout cas la transformation numérique n’a pas d’effet sur ce type de stratégie. Il est cependant possible de chercher à augmenter le volume d’activité en proposant aux clients des prestations complémentaires basées sur la mise en œuvre de systèmes d’information. GE s’est lancé dans un programme de ce type (Pour en savoir plus sur la stratégie de GE on peut lire dans Bloomberg un très intéressant article. Pour cela cliquez ici) avec Predix qui est une plateforme fonctionnant en mode cloud permettant de suivre les performances d’un grand nombre d’équipements et de détecter les pannes ou les sous-optimisations (Pour en savoir plus sur Predix voir Wikipédia : cliquez ici). C’est une démarche intéressante mais est-ce qu’elle apportera un chiffre d’affaires significatif avec un niveau de marge suffisant ? D’ailleurs cette stratégie relève plus d’une stratégie de développement de l’activité de service que d’une politique d’augmentation du prix de vente des produits.
Comme on le voit un certain nombre de stratégies de développement d’entreprise restent assez éloignée de la démarche de la transformation numérique. L’accroissement de la taille du marché de l’entreprise et l’augmentation des prix de vente sont des stratégies qui ignorent en grande partie les mutations technologiques en cours.

Importance de la réflexion stratégique avant tout développement

Comme on le voit les possibilités de développement offertes par la transformation numérique sont nombreuses et les choix à effectuer sont délicats. Il est pour cela indispensable d’avoir en amont de tout développement une réflexion de type stratégique. Elle commence par la recherche des opportunités de développement. Il est de plus nécessaire d’identifier les menaces potentielles peuvent venir notamment de start-ups ou de concurrents. Il est en particulier important de regarder de près ce que font les concurrents étrangers et notamment les californiens.
Une fois cette première réflexion faite il est nécessaire de prendre la décision délicate : on y va ou on n’y va pas, avec qui et avec quel budget. C’est une décision importante car elle engage l’avenir et même, dans certains cas, la survie à terme de l’entreprise.
Ces choix relèvent de la direction générale de l’entreprise car elle met en jeu son avenir. Une réflexion préalable de l’équipe de direction ou d’une commission ad’hoc type commission informatique est très utile mais au final les dirigeants sociaux de l’entreprise doivent prendre la décision finale. Dans certains cas, notamment lorsque des investissements importants sont nécessaires, il est souhaitable que cette orientation soit validée par le conseil d’administration.

 [1] - Une étude récente d’Accenture, « Performance Digitale des Entreprises Françaises », montre que les entreprises et particulièrement les entreprises françaises ont du mal à s’engager dans la transformation numérique. D’après leur étude, sur les 100 premières entreprises françaises seul 3 ont une stratégie de la transformation numérique et dégagent une rentabilité pour ces investissements (Pour lire cette étude cliquez ici).
[2] - McKinsey a, dans une récente étude appelée : « Digital Europe » , cherché à mesurer le retard de l’Europe par rapport aux USA. Pour cela ses consultants ont défini un indicateur : le « McKinsey Global Institute’s Industry Digitization Index ». Il permet de mesurer le niveau d’activité numérique d’un pays, d’un secteur d’activité ou d’une entreprise. Il vaut 18 % aux USA, 17 % en Grande Bretagne et seulement 12 % en France soit un retard de l’ordre de 50 %. Pour information l’Allemagne et l’Italie sont seulement à 10 % alors que la Suède et les Pays Bas sont à 15 % (Pour lire l’étude Digital Europe de McKinsey cliquez ici)
[3] - Les cinq axes stratégiques permettant le développement des entreprises se composent d’un certain nombre d’actions. Ce sont :
1.     Augmenter les prix de vente. Il existe toute une série de mesures permettant de majorer les prix. Un grand nombre de ces actions ont un caractère assez négatifs mais d’autres sont plus positifs :
-       Bénéficier d’une pénurie ou même l’organiser (rétention, spéculation, …) pour augmenter les prix.
-       Cartelliser le marché à l’aide d’une entente entre les principaux fournisseurs.
-       Augmenter les droits de douanes ou dévaluer la monnaie (ce n’est, bien entendu, pas le fait de l’entreprise mais du gouvernement).
-       Elever des barrières à l’entrée du marché (par une réglementation, des contingentements, des normes, …).
-       Empêcher le développement de la concurrence grâce à des brevets défensifs.
-       Développer les ventes d’accessoires ou de services complémentaires.
-       Proposer aux clients une gamme de produits avec des versions des produits plus « sophistiqués » et surtout ayant des prix plus élevés.
-       Convaincre les prospects qu’ils acquerront un statut supérieur en achetant le produit (voiture, vêtements, Première Classe, …). C’est le snob-effect.
-      
Ce sont pour l’essentiel des mesures ayant pour but de limiter la concurrence. Les progrès technologiques ont peu d’effet à l’exception de la prise de brevets, faut-il encore qu’ils soient mis en œuvre.
2.     Diminuer les coûts de revient. Ils peuvent obtenu en augmentant la productivité, en réduisant les prix d’achat des matières premières, de la main d’œuvre, ou des produits semi-finis et finis :
-       Baisser les salaires et les charges sociales, le montant des achats de matière premières, le coût de l’énergie et des transports, le niveau les frais fixes (locaux, coûts de siège, taxes, frais financiers, …).
-       Recourir à une main d’œuvre moins qualifiée et moins chère. Mais on peut aussi avoir la stratégie inverse en recourant à du personnel plus qualifié et donc plus efficace.
-       Baisser le cours de la devise (ceci n’est pas le fait de l’entreprise mais de l’Etat ou de la Banque Centrale). Mais on peut aussi chercher à localiser la production dans des pays dont la monnaie s’est effondrée.
-       Diminuer les droits de douanes concernant notamment les importations de matières premières et de produits semi-finis. Il est aussi possible de faire entrer ces produits en suspension de droits.
-       Améliorer les processus de production et de logistique.
-       Accroître la productivité de la main d’œuvre notamment en effectuant des investissements de productivité : mécanisation, automation, …
-       Recourir plus largement à la sous-traitance.
-       Diminuer le montant des investissements nécessaire pour produire une unité produite supplémentaire.
-       Augmenter le volume cumulé des produits fabriqués (effet de la learning curve).
-       Augmenter la taille des séries de fabrication.
-       Réduire le poids des frais fixes (abaisser le points mort).
-       ….
Comme on le voit il existe une large panoplie de mesures permettant de diminuer les coûts de revient. Le progrès technique n’est qu’un des facteurs de réduction des coûts. Il se fait, pour l’essentiel par le biais des investissements de productivité.
3.     Augmenter la part du marché accessible. On commence par rechercher dans un premier temps à augmenter l’activité avec les clients existants puis ensuite l’entreprise va rechercher de nouveaux clients dans son pays ou à l’étranger :
-       Pousser les concurrents à la faillite afin de les faire disparaître et récupérer leurs clients.
-       Racheter et absorber des concurrents de façon à augmenter la part de marché de l’entreprise.
-       Baisser les prix de vente afin d’acquérir de nouveaux clients et d’éliminer des concurrents (voir axe n°2).
-       Mettre en place un programme de fidélité avec une animation spécifique : ristournes, promotion, avantages particuliers, …
-       Développer les exportations directes (trouver des distributeurs locaux, ouvrir des points de vente, créer des filiales locales, ….) ou indirectes (c’est le cas lorsqu’une grande entreprise propose les produits ou les services de PME partenaires).
-       Diminuer les coûts de transports (la globalisation est en grande partie due à la baisse des coûts de transport permise par les containers).
-       Augmenter les efforts de marketing, de publicité, de promotion, … afin de fidéliser les clients et conquérir des prospects.
-       Favoriser l’obsolescence des produits.
-       Développer les effets de mode.
-       Dans la distribution ouvrir de nouvelles boutiques ou augmenter les surfaces de ventes mais surtout fermer celles qui sont mal placées au profit d’emplacements ayant un passage plus important.
-       Elargir les horaires d’ouverture des points de ventes et ouvrir le dimanche.
-       Inciter les clients à aller vers le site Web de l’entreprise car il permet de vendre 24 h/24 et 7 jours/7.
-       ….
L’augmentation de la part de marché de l’entreprise est le domaine privilégié du marketing mais il existe un nombre important de mesures qui relèvent d’autres domaines.
4.     Faire évoluer les produits et les services. C’est un facteur de croissance très important. Il est toujours important de faire évoluer les produits pour mieux répondre aux évolutions du goût et des attentes de la clientèle mais surtout il faut innover en proposant des produits originaux :
-       Remonter en gamme et restructurer l’offre de façon à inciter les clients à acheter dans la gamme les produits situés au-dessus de ceux qu’ils auraient spontanément choisie.
-       Améliorer la qualité des produits. C’est la stratégie Toyota. Par de petits incréments chercher à améliorer l’outil de production et donc la qualité des produits.  
-       Enrichir le produit en lui ajoutant de nouveaux services. Un nombre croissant de produits s’intègrent dans un système recourant de plus en plus largement à Internet, à des serveurs, … Cette stratégie est ancienne. Déjà en leurs temps Kodak, Gillette, Nespresso, …ont été des exemples parfaits de ventes liées.
-       Créer des produits originaux permettant de compléter les gammes existantes ou de s’attaquer à de nouveaux marchés. 
-       Développer les services autour des produits existants comme l’a fait Apple avec iTunes Music Store puis avec App Store ou Google avec Android Market puis Google Play et Microsoft avec Windows Store. Beaucoup de produits peuvent ainsi bénéficier de services dont un nombre croissant sont payants.
-       Simplifier le processus de production. C’est un moyen de réduire les coûts mais aussi de rendre le dispositif plus souple. Il est ainsi possible de produire sur la même chaine de production différents modèles de véhicules et ainsi enrichir l’offre.
-       Développer l’emploi des nouvelles technologies. Ceci concerne d’abord les produits mais elle peut aussi s’appliquer aux processus de production ou de diffusion existants. Elles permettent de recourir à des stratégies de rupture comme l’on fait Uber et Airbnb. Grâce à Uber on appelle un taxi à l’aide d’une application sympa directement avec son smartphone.
-       ….
Ce domaine est directement concerné par le progrès technique et notamment par les processus de transformation numérique. C’est un domaine en rapide évolution et on risque d’assister dans les années à venir à de nombreux changements.
5.     Personnaliser le produit ou le service. Les clients veulent être traiter comme une personne adulte : être reconnu, être conseillé en fonction de leurs habitudes. Ils sont à la recherche de bonnes affaires (ventes flash, pré-ventes, ventes privées, promotion VIP, rabais massifs, …).
-       Permettre d’offrir un nombre croissant d’options.
-       Faire des recommandations aux clients en fonction de leurs choix antérieurs comme le font déjà Amazon, You Tube, Netflix, Pinterest, ….
-       Faire de l’animation sur le lieu de vente mais de plus en plus d’actions de ce type se font à distance par le biais de mailing, de SMS, de messages affichés à la connexion au site, …
-       Fournir du conseil aux clients. Il peut être gratuit ou payant.
-       Développer des services de qualité. Le client a besoin d’être dorloté. Il faut le suivre, lui demander son avis, l’inviter à des réunions ou des expositions, …
-       Fournir une assistance à l’utilisation du produit ou du service notamment lors de sa mise en route ou de sa prise en main.
-       Renouveler fréquemment l’offre. Il existe des effets de mode très importants et il est possible de les renforcer.
-       ….
La technologique permet de renforcer la personnalisation des produits et des services et donc accroître la fidélité des clients. Tous les grands opérateurs d’Internet travaillent en ce sens en intégrant de l’Intelligence Artificielle dans leurs services : Google, IBM, Facebook, Microsoft, … 
[4] - Une entreprise peut avoir une politique de renouvellement rapide des modèles pour justifier un « premium » comme en matière de smartphone. Cette stratégie ne correspond pas au 1er axe mais au 4ème.
[5] - Voir sur ce sujet le texte prémonitoire de Marc Andreessen : « Why Software is Eating the World » publié dans le Wall Street Journal en 2011 (Pour lire cet article cliquez ici). Le terme « software compagny » est préférable à celui, souvent utilisé, de plateforme.
[6] - Je n’ai rien contre l’Auvergne. Ce peut être la Bretagne où les Pyrénées.

vendredi 3 juin 2016

Big Data et Système d’information

Le terme Big Data est à la mode et on a tendance à le mettre à toutes les sauces. Les responsables marketing des éditeurs de logiciels, des sociétés de service et des constructeurs affirment tous être experts en matière de Big Data et proposent des produits Big Data. C’est un bon argument pour vendre des disques, des serveurs, des logiciels de gestion des bases de données, des outils d’analyse statistique, des services de cloud, …. Mais derrière tout ce battage médiatique il y a une réalité qui se développe rapidement et qui va avoir des conséquences importantes dans les années à venir.
Or, le développement du Big Data soulève de nombreuses questions :
·       Est-ce une nouvelle informatique où l’informatique classique recourant à de nouveaux outils ?
·       Assiste-t-on à l’apparition de nouvelles architectures ?
·       Quelles sont leurs relations avec les anciennes structures de données ?
·       Va-t-on assister à une multiplication du nombre de stockages de données ?
·       Est-ce que ces nouveaux systèmes seront confiés à de nouveaux professionnels : les data scientists ?
·       Dans ces conditions quel sera le rôle des informaticiens classiques ?
·       ….
Comme on le voit le Big Data constitue une mutation importante du monde de l’informatique, des systèmes d’information et des services d’information.

Les origines du Big Data

Le développement du Big Data est dû à la conjonction de deux facteurs qui, depuis plus d’une décennie, ont dominés l’évolution de l’informatique et qui expliquent les changements actuellement constatés :
-       La baisse des coûts de stockage sur disque. On a assisté ces dernières années à une chute rapide de leurs coûts. Elle est en grande partie permise par l’augmentation considérable de leur capacité de stockage. En quelques années les capacités des disques 3,5 pouces sont passés de 25 Go autour de l’an 2000 à un To ([1]) à la fin de la décennie et elle est aujourd’hui de 10 To. Ceci fait que le prix du Go stocké est passé en 15 ans de 20 $ à quelques cents ([2]). Malheureusement la vitesse rotationnelle des disques n’a pas augmenté dans les mêmes proportions ce qui fait que le temps de latence pour accéder à une donnée est resté élevé. Heureusement le développement des mémoires SSD (Solid State Drive) règle ce problème avec un temps d’accès à une donnée qui est passé de 10 millisecondes dans le cas des disques durs à moins de 70 microsecondes (soit 0,07 milliseconde) dans le cas des mémoires flash. On est dans un rapport de 1 à 100. Les capacités de stockage de ces systèmes à base de mémoire électronique est passé en quelques années de quelques dizaines de Go par système à 1 To pour un prix stable de l’ordre de 200 $ soit 20 cents le Giga-octets.  
-       L’augmentation de la capacité des bases de données. Pendant longtemps elles étaient limitées à quelques millions d’occurrences. Si on avait besoin de stocker plus d’éléments il fallait segmenter cette base en plusieurs sous-bases. C’était une galère pas possible ! Chaque requête devait être dupliquée en autant de bases existantes et le résultat de chaque base devait être consolidée en un seul ensemble. En 2000, une petite société de service, Seisint, a eu l’idée de développer un ensemble de programmes écrit en C++ capable de gérer des données structurées et non-structurées stockées sur de multiples serveurs et pouvant être traité sur chaque serveur, en parallèle, les requêtes qui leur sont soumises. Cette société fut rachetée en 2004 par LexisNexis qui est un des plus importants éditeurs de bases de données documentaire et juridique mondial qui avait su, dès les années soixante-dix, proposer la recherche dans l’ensemble des textes. La même année Google a repris ces idées afin de mieux répondre à ses besoins de stockage de donnée et a développé une architecture voisine de celle de LexisNexis appelée MapReduce. C’est la base de l’architecture Hadoop qui est en passe de devenir un standard grâce à HDFS ([3]). C’est un logiciel libre développé et diffusé par l’Apache Software Fondation. Cette architecture est reprise par de nombreux produits comme Google FS, BigTable, HBase, Hive, Pig, Phoenix, MapR, …. Elle fonctionne sur le cloud chez les principaux fournisseurs : Cloudera, Amazon dans Elastic MapReduce disponible dans Amazon Web Services, Azure HDInsight, IBM BigInsights for Hadoop, ….
La conjonction de ces deux facteurs explique le développement rapide du Big Data. Il est ainsi possible de constituer des bases de données de taille quasiment illimitée. De plus il est possible d’exploiter l’ensemble de ces données dans des conditions acceptables, notamment grâce à des temps de réponse satisfaisants, grâce au parallélisme des traitements.

Un grand nombre d’applications possibles

Comme on le voit le Big Data c’est d’abord de la plomberie. Mais la possibilité de créer des bases de données de taille illimitée a permis de créer ou de développer d’un grand nombre de nouveaux usages. Ils ont élargi de manière considérable le domaine des possibles :
·       Marketing. C’est le domaine où il y a actuellement le plus grand nombre d’applications notamment dans le domaine de l’analyse des comportements des acheteurs et des prospects en particulier ceux présents sur Internet. Depuis des années Wal-Mart analyse en permanence les tickets de caisse de ses millions d’acheteurs journaliers et ainsi détecte des opportunités. Aujourd’hui le succès de sites comme Amazon, You Tube, Netflix, Spotify, … repose sur l’analyse du comportement de leurs clients et de leurs prospects. Il est ainsi possible de faire des offres ciblées répondant à leurs attentes.
Ces mêmes techniques peuvent être utilisées lors des élections en exploitant des bases de données constituées à partir des listes électorales, des résultats des dernières élections par bureau de vote, des bases de localisation géographique et des bases décrivant les caractéristiques sociales et économiques de ces populations afin de détecter les électeurs tièdes et de leur envoyer des militants pour les inciter à voter. C’est la base des programmes de portes à portes ou de relance téléphonique qui expliquent les succès de Barack Obama et de François Hollande en 2012 et du BJP (Bharatiya Janata Party) en Inde en 2014.
Toutes ces techniques de marketing fin sont à l’opposé du marketing de masse traditionnel. Elles reposent fondamentalement sur le rapprochement de différentes bases de données de très grandes tailles.
·       Analyse des données. C’est le domaine classique des calculs de régression, des analyses en composantes principales, des analyses factorielles multiples, … Mais au lieu de travailler sur des échantillons et des panels avec le risque toujours possible d’erreur d’échantillonnage les statisticiens vont pouvoir travailler sur l’ensemble des données. Dans ces conditions on sera certain des résultats car on analysera l’intégralité de toutes les données. Ceci entraine un développement rapide du vaste domaine du Data Mining qui concerne les données chiffrées mais aussi les textes, les données géographiques, les enregistrements audio, les images, …. Il ne faut pas s’imaginer qu’on va découvrir automatiquement ces choses qu’on ignorait jusque-là. Il n’y a pas de mines d’or cachées. On va simplement mieux connaitre et surtout mieux quantifier des modèles qui jusqu’alors étaient plus ou moins connus.  
·       Développement de nouveaux services. Les plus grands utilisateurs de Big Data sont actuellement les GAFA et notamment Facebook qui stocke 50 milliards de photos sur une base Hadoop. De même Amazon, Google, eBay, You Tube, … mettent en œuvre des bases de données de grandes capacités pour fournir leurs services actuels.
Le Big Data est aussi utilisé par les entreprises de « reciblage publicitaire » comme Criteo. (Pour voir la définition du « reciblagepublicitaire » sur Wikipédia cliquez ici). Cependant pour l’usager moyen un meilleur ciblage des publicités ne se traduit pas forcément par une amélioration des services fournis.
Par contre la possibilité de suggérer aux utilisateurs des recommandations adaptées à leurs goûts et à leurs attentes comme le font déjà You Tube, Netflix, Amazon, LinkedIn, Facebook, iTunes, ... est un progrès. Demain les grands distributeurs, les banques, les assureurs, les compagnies aériennes et les agences de voyages, …. vont pouvoir personnaliser leurs offres en fonction des préférences de leurs clients. Ces démarches ne sont pas réservées au seul secteur commercial. Elles vont aussi être mises en œuvre dans des domaines comme l’éducation où la culture. 
·       Santé. A partir des millions de prescriptions stockées dans les bases de données de la sécurité sociale il est possible de mesurer l’impact des traitements sur la santé des patients. Ceci permet de détecter les traitements dangereux ou inefficaces et de recommander aux médecins ceux ayant montrés leur efficacité.
Il est aussi possible d’effectuer des analyses épidémiologiques fine ou de faire de la médecine prédictive en évaluant les risques concernant des populations déterminées et en identifiant les groupes à risques. Une autre possibilité est d’analyser les génomes de larges populations de façon à identifier les risques de maladies génétiques notamment certains types de cancers. Mais ces possibilités sont actuellement freinées par les réticences du corps médical. 
·       Sécurité. La NSA a construit dans l’Utah une plateforme ayant une capacité de stockage gigantesque. On estime qu’elle serait comprise entre 3 et 12 exaoctets (soit des milliards de gigaoctets) stockés sur 10 000 de serveurs de données (Pour en savoir plus sur l’Utah Data Center surWikipédia cliquez ici). Les données sont ensuite exploitées avec des logiciels type PRISM dont l’existence a été divulguées par  Edward Snowden (Pour en savoir plus sur PRISM cliquez ici) et ainsi de surveiller l’ensemble d’Internet et des communications téléphoniques mondiales. En France, la DGSE, avec des moyens plus limités, a développé le Pôle National de Cryptanalyse et de Décryptement (PNCD).
Grâce au Big Data il est aussi possible de suivre une personne en ville grâce aux milliers de cameras-vidéos qui s’y trouvent et aux possibilités offertes par la reconnaissance des visages. On peut aussi suivre les véhicules automobiles roulant sur les autoroutes et dans les villes et de voir où elles passent grâce à la lecture automatique des plaques minéralogiques.
·       Sciences. Le Large Hadron Collider (LHC) du CERN doit traiter les 600 millions de collisions par seconde qu’il produit pour détecter parmi celles-ci celles qui sont intéressantes.
Dans le domaine astronomique le Sloan Digital Sky Survey collecte automatiquement toutes les nuits les données concernant des millions d’étoiles et de galaxies. En quinze ans il a accumulé des données photométriques et spectroscopiques concernant 500 millions d’objets couvrant environ 35 % du ciel. Son successeur, le Large Synoptique Survey Telecope arrivera en 2020 et permettra de faire un recensement complet de la voie Lactée en 3D. On estime qu’elle comprend entre 100 et 400 milliards d’étoiles.
Comme on le voit le Big Data offre des perspectives considérables et va se traduire par des développements importants dans des domaines qui jusqu’alors souffraient des limites des systèmes existants. Un des facteurs important de généralisation des technologies du Big Data va être, dans les années à venir, le développement de l’Internet des Objets qui va produire des masses considérables de données qu’il faudra bien stocker et traiter quelque part.

Le Big Data à la croisée des chemins

Traditionnellement on considère qu’il existe deux grandes familles de systèmes d’information :
·       Les systèmes d’information opérationnels qui gèrent les commandes, font la comptabilité, établissent la paie, … C’est le domaine traditionnel de la gestion ([4]).
·       Les systèmes d’information décisionnels qui permettent d’effectuer des requêtes, d’établir des tableaux de bord, d’alimenter des modèles de simulation, …
Les systèmes décisionnels sont généralement fournis à partir des systèmes d’information opérationnels par recopie périodique des bases de données. C’est le « copy management ». C’est simple mais un peu lourd en particulier lorsque les bases sont de grandes tailles. De plus très vite les données stockées sur les systèmes décisionnels ne sont plus à jours.
Lorsque les premiers systèmes d’information en mode Big Data sont apparus on s’est retrouvé face à un troisième type de système d’information situé en aval des systèmes d’information opérationnel. On a commencé par les alimenter pour partie par « copy management » comme les systèmes d’information décisionnel et pour le reste à partir par de remontées directes du réseau. Mais est-ce la bonne solution ? Cette multiplication des systèmes d’information qui se recopient les uns sur les autres n’est pas une solution particulièrement performante.

Les inconvénients de la séparation

En effet, la séparation des systèmes d’information en mode Big Data et des systèmes d’information opérationnels et le positionnement des premiers en aval des seconds est une démarche risquée. En effet, entre deux mises à jour on constate très vite une désynchronisation des bases de données. Ceci a pour conséquence de faire apparaître des écarts conséquents lorsqu’on effectue les mêmes consultations sur les bases de données en mode Big Data et sur les systèmes de gestion classique. Or, rien n’est pire que de se retrouver avec deux montants différents pour une même rubrique selon qu’on interroge un système d’information opérationnel ou sa copie décisionnelle. Pire, il n’est pas possible de justifier à cet écart. Même si ce type de situation s’explique parfaitement cela fait désordre.
A cela s’ajoute le fait qu’un grand nombre d’informations arrivent directement dans les bases de données en mode Big Data. Or celles-ci peuvent ensuite avoir un impact sur les bases de données de gestion. Ceci risque de se traduire par des doublons. On risque alors de constater leur existence mais il est toujours très difficile de les identifier et de les neutraliser.
Même difficulté, lorsqu’on modifie ou on supprime des données dans des bases de données en mode Big Data et dans les systèmes d’information opérationnels. On doit veiller à effectuer ces corrections en même temps dans les différentes bases de données. C’est un exercice difficile qui est toujours un peu risqué. La moindre fausse manœuvre risque d’entraîner des désynchronisations difficiles à détecter.
Comme on le voit les risques de perte de données au cours des transferts de données ou de mise à jour de données sont importants. Pire, il est difficile de détecter rapidement ces divergences et même parfois il n’est pas possible de les repérer. Pour cela on va s’efforcer de faire des totalisations significatives puis ensuite chercher à repérer les occurrences fautives et s’efforcer de les corriger. 

Les chemins de la migration

Dans ces conditions il n’est pas raisonnable de gérer trois familles de base de données : les systèmes d’information opérationnels, les systèmes d’information décisionnels et les systèmes d’information en mode Big Data. Il est fort probable que dans les années à venir ils vont progressivement se rapprocher et évoluer vers un seul type de système d’information bâti à partir de la norme de facto Hadoop.
Pour cela on va probablement, dans un premier temps, envisager de fusionner les systèmes d’information décisionnels et les bases de données organiser en mode Big Data. Ce sont les mêmes informations même si parfois celles-ci sont plus agrégées dans les systèmes décisionnels. Jadis on a adopté cette solution reposant des systèmes d’information séparés car les capacités de stockages des systèmes d’aide à la décision étaient alors limitées. Il est probable que cette fusion se fera lentement en fonction des mises à jour des logiciels d’aide à la décision car les systèmes existants sont complexes et lourds à faire évoluer. Cependant cette évolution est probable.
Dans une deuxième étape, on peut envisager qu’il va être possible d’aller plus loin et d’alimenter directement et en temps réel les bases de données en mode Big Data et les systèmes d’information opérationnel. Cette évolution est souhaitable de façon à éviter les divergences entre les systèmes d’information. A terme il est probable qu’au lieu de trois types de systèmes d’information on va arriver à un seul. Par contre cette opération n’est pas évidente à mettre en œuvre. Il va être pour cela nécessaire de disposer d’outils puissants et fiables permettant de saisir et de transférer ces données dans des conditions de sécurité satisfaisantes.
Ces choix d’architecture sont délicats et auront, dans les années à venir, des conséquences importantes. La migration vers le Big Data a commencé à titre expérimentale et va probablement de nombreuses années.

Les conséquences de la fusion des systèmes d’information

Cette évolution va avoir plusieurs conséquences importantes :
·       Augmenter les capacités de stockage des systèmes d’information de gestion. Les grandes entreprises doivent faire face à des volumes croissants de données car on veut stocker de plus en plus d’informations détaillées. Cette contrainte va les inciter à passer en mode Hadoop. A cela s’ajoute le fait que plus les systèmes sont intégrés plus la taille de leurs bases de données est importante. On arrive aux limites des bases de données classiques type SQL. Le recours aux bases Hadoop est une solution intéressante pour gérer les données de gestion. De plus le fait que les bases réparties sont systématiquement redondantes améliore la sécurité de ces systèmes et allège les procédures de « backup ».
·       Répondre à la demande croissante d’enrichissement de l’information de gestion. Les bases de données décisionnelles, lorsque les hypercubes ont un nombre élevé de dimension, arrivent assez vite à saturation. Les bases de données en mode Big Data permettent de gérer un beaucoup plus grand nombre de « cases » et donc des tableaux avec un nombre de dimensions beaucoup plus élevés. Il va ainsi être possible d’améliorer la finesse des calculs de coûts de revient, de mesurer de manière détaillées les différentes activités, de suivre un grand nombre de tâches et de mieux anticiper leurs évolutions, …
·       Améliorer la vitesse de recherche des informations. Ceci concerne la recherche d’une information mais aussi un grand nombre d’occurrences correspondantes à un critère donné. Le fait qu’une base de données est répartie sur plusieurs serveurs et qu’une partie des traitements sont effectués sur place, notamment la gestion des index, permet d’envisager une accélération significative des vitesses de recherche. Les moteurs de recherche et notamment Google montrent les progrès qui ont été réalisés en ce domaine ces dernières années. Il est probable que la vitesse d’exécution des applications de gestion et d’aide à la décision va progresser de manière importante dans les années à venir.
·       Intégrer les systèmes de gestion et ceux chargés de fournir des services. C’est notamment le cas des sites de commerce électronique qui doivent intégrer le front-office (c’est-à-dire la recherche des articles dans le catalogue et la gestion du panier) et le back-office (l’établissement de la facture, la gestion du règlement, le prélèvement sur stock et la livraison). L’intégration s’impose car on utilise dans les deux cas des mêmes bases de données : articles, clients, stocks, ….  
·       Améliorer la qualité des prévisions de gestion et renforcer la planification des opérations. Dans un grand nombre d’entreprises les prévisions sont fragiles. Elles sont souvent effectuées en prolongent les tendances précédemment constatées plus ou moins infléchies. Les analyses statistiques faites à l’aide de bases de données en mode Big Data permettent de détecter des mouvements fins ce qui est utile pour établir des prévisions plus réalistes et donc de mieux « coller » à la réalité.
Comme on le voit le Big Data ne va pas seulement améliorer les capacités d’analyse des données mais aussi impacter les systèmes de gestion existants. Il va aussi se traduire par une amélioration des outils informatiques. Mais, au-delà, ces possibilités vont permettre un élargissement considérable des possibilités offertes par ces systèmes ce qui va, à son tour, avoir un impact certain sur la nature et la multiplicité des applications mises en œuvre.  




[1] - To : Terra octets soit mille milliards d’octets (1.000.000.000.000 octets) soit1.000 Go.
[2] - Le premier système disque a été commercialisé par IBM en 1956. C’était l’IBM 350 RAMAC qui stockait 5 Mo de données sur 50 plateaux de 60 centimètres de diamètre chacun, coûtait 50.000 dollars et pesait une tonne. 
[3] - HDFS : Hadoop Distributed File System. (Voir Hadoop sur Wikipedia). Ce système permet de fractionner les grandes bases de données en blocs importants et les distribuer sur un certain nombre de serveurs organisés pour former un cluster de taille illimitée. Les traitements des données stockées sur un serveur se font sur le même serveur ce qui permet de traiter l'ensemble des données plus rapidement. Ces systèmes de fichiers parallèles où les données sont directement traitées sur le serveur les stockent et dont l’ensemble des serveurs sont reliés par un réseau de grande capacité constituent des systèmes d’une puissance et d’une rapidité sans comparaison possible. Cerise sur le gateau : chaque serveur peut être doublé par un serveur de secours dont les données sont simultanément mises à jour. En cas de panne matériel d’un serveur le système bascule automatiquement sur le serveur de sauvegarde.
[4] - Comme le fait remarquer très justement Christophe Legrenzi : « Traditionnellement les données alimentant les systèmes d’information étaient principalement saisies de manière manuelle. Or aujourd'hui, avec la multiplication des capteurs, des cookies, des saisies sous Web, etc. la majorité de l'information arrivant dans les systèmes d’information est d'origine automatique et non manuelle ce qui démultiplie les volumes. C'est une des raisons de l'origine mais aussi de la popularité du Big Data. On enregistre tout ce qu’il est possible de saisir notamment les informations concernant les clients sans savoir forcément la finalité de ce stockage. C'est pourquoi on constate deux approches différentes : un "Big Data déterministe" où l'on stocke ce que l'on a décidé de garder et un "Big Data exhaustif" où l'on stocke tout au cas où.