mardi 10 décembre 2013

Le Cobol n’est toujours pas mort

A priori Cobol est un langage dépassé, tombé dans les oubliettes de l’histoire informatique. D’ailleurs souvent on dit que l’acronyme ne veut pas dire COmmon Business Oriented Language mais Completely Obsolet Business Oriented Language. Mais est-ce si sûr ? J’ai écrit sur ce blog un court message le 19 décembre 2011 titré : « Quel avenir pour le Cobol ? ». C’était il y a deux ans ! Or aujourd’hui encore c’est un des textes les plus consultés du blog. Il se classe en second après celui sur : « La gestion de projet : peut mieux faire ». Ce texte représente 12% des consultations parmi la vingtaine de messages se trouvant sur le blog. L’analyse montre qu’une partie de ces lecteurs viennent par Google avec la recherche « avenir du cobol » ou « Cobol avenir ». Dans ces conditions on peut s’interroger et se demander si effectivement Cobol aurait un avenir ? 
Pourtant ce n’est pas un sujet très « sexy ». Il existe sur ce blog de nombreux sujets plus porteur que le Cobol comme par exemple : le cloud, le Big Data, Java, les tablettes, la 4G, le FTTH (Fiber To The Home), …. Il existe des thèmes nettement plus stratégiques que le Cobol comme les mesures nécessaires pour réussir à développer l’économie numérique en France et en Europe ou bien la recherche des moyens pour mieux financer les entreprises du secteur informatique et numérique. Mais, ce sujet apparait en tête des classements car les professionnels de l’informatique se posent de nombreuses questions depuis des années et ils ont du mal à trouver des réponses satisfaisantes.

Un silence étourdissant

En effet si on effectue quelques recherches sur Google ([1]) on s’aperçoit que l’avenir du Cobol est un thème traité de manière peu fréquente et lorsque ce sujet est évoqué c’est pour faire des offres d’apprentissage au Cobol. C’est intéressant mais peu de personnes s’intéressent à son avenir. De même vous pouvez aussi rechercher dans la presse informatique on line ou sur papier, et vous constaterez que c’est un sujet qui est rarement abordé. Il y a une sorte de « silence radio » sur le sujet, seul exception, de temps à autre le Monde Informatique publie un article sur le sujet, repris de Computerworld, ou d’un communiqué de presse de Micro-Focus. Mais aucune « autorité » ne s’exprime sur le cœur du sujet. Tout se passe comme si Cobol était mort. Or il est bien vivant.
Les chiffres sont là. On estime le total des lignes de codes développées par les utilisateurs dans tous les langages possibles est égal à 310 milliards de lignes. Or sur ce total 220 milliards de lignes, soit 71 % du total, sont écrites en Cobol ([2]). Plus étonnant encore la taille de ce parc augmente de 5 milliards de lignes par an. C’est un investissement considérable effectués par toutes les entreprises et les administrations. Faisons un rapide calcul : si une ligne de code coûte 15 dollars cela fait un investissement mondial de 3.300 milliards de dollars (Selon différentes études il est compris évalué entre 1.500 et 5.500 milliards de dollars). Il est difficile qu’on puisse imaginer de passer par Pertes et Profit une somme pareille. Il est donc nécessaire d’admettre que la communauté informatique va vivre avec pendant encore un certain nombre d’années. 
L’idée d’une disparition prochaine de ce langage vieux de plus de 50 ans ([3]) est en fait une illusion. Il va, probablement, continuer de se développer mais curieusement on l’ignore. Ceci explique en grande partie l’attitude de nombreux professionnels et donc cherche des informations sur ce sujet.

La concurrence était rude

Malgré les annonces récurrentes de la prochaine disparition du Cobol il est toujours là. Il manifeste une résistance remarquable. En effet il a survécu à tous les langages partis à l’assaut de sa domination et notamment à quatre approches qui ont été présentés comme des révolutions technologiques et qui auraient normalement dues le tuer. 
La première fut le Gap (générateur automatique de programmes), appelé en anglais le RPG (Report Program Generator). C’est un langage beaucoup plus simple que le Cobol qui a l’avantage d’être assez proche des opérations que faisaient jadis les mécanographes avec des cartes perforées, des trieuses et des tabulatrices. IBM en a fait la promotion sur tous ces matériels bas de gamme destinées aux PME : 1130, série 3, IBM 32 et 34, AS/400,… Il devait rendre Cobol inutile. Aujourd’hui les programmes écrits en Gap ont quasiment disparu. 
La seconde est venue du PL/1 développé dans les années 70 par IBM. Il devait remplacer le Cobol car il était mieux structuré, était capable de traiter aussi bien des problèmes de gestion que du calcul scientifique, disposait de pointeurs, … En somme le meilleur des deux mondes. Certaines entreprises fortement conseillées par IBM se sont lancées dans de colossales opérations de réécritures de l’ensemble de leurs programmes en pure perte. Aujourd’hui qui se souvient de PL/1 ? 
La troisième révolution fut celle du Pascal. Qui se souvient que Pascal était un langage informatique ([6]) ? Pourtant dans les années 80 c’était la coqueluche des programmeurs. Un compilateur développé UCSD générait un code intermédiaire (le p-code) qui était ensuite interprété par une machine virtuel. Il a permis de résoudre l’éternel problème de la portabilité : « Write once, run anyware ». Une partie du système d’exploitation du Macintosh ou la première version de Photoshop ont été écrit en Pascal. Il a ensuite été remplacé par le Turbo-Pascal développé par Borland, puis il a sombré dans l’oubli, dépassé par le C. 
Le 4ème candidat à la succession de Cobol a été le Basic. Il aurait pu l’emporter si Microsoft ne s’était pas remarquablement tiré une balle dans le pied. Au début de la micro-informatique, en 1977, Bill Gates et Paul Allen avaient eu le génie de développer un interpréteur Basic qui fonctionnait avec seulement 4 kilo-octets de mémoire centrale. Il a été livré en standard avec tous les premiers micro-ordinateurs. Ensuite une longue série de Basic ont été développés dont Quik Basic, Visual Basic,… Des millions de programmeurs dans le monde ne travaillaient qu’en Basic qui comme son nom l’indiquait était simple et ne nécessitait pas un long apprentissage. Mais Microsoft a eu la curieuse idée d’intégrer Basic dans son architecture .NET et de mettre de l’objet dans Basic pour finalement obtenir Visual Basic.NET. C’était très bien sauf que les anciens programmes étaient incompatibles avec les nouveaux interpréteurs. Il fallait tout réécrire. Plus grave : les programmeurs Basic n’avaient pas le niveau de compétences nécessaires pour utiliser cette nouvelle version du Basic. Ils l’ont abandonnés au profit de langages plus simples comme PHP.
Ceci explique que Cobol soit toujours là.

Les charmes de Java

Plus récemment un cinquième concurrent de Cobol est apparu. Il porte le nom d’une île : Java. La création de ce langage est lié à la difficulté d’utiliser le C et sa version orientée objet C++. Ces langages, proches des macros de l’assembleur, demandent des programmeurs très compétents et ayant une grande expérience. Leur succès est dû à leur remarquable portabilité.
Java est à l’origine un sous-ensemble de C++. Mais au fil du temps de nombreuses fonctions ont été ajoutés. Elles ont rendu le développement à l’aide de ce langage plus complexe et il est devenu délicat à mettre en œuvre. Il a connu une rapide diffusion tant sur les postes de travail, grâce aux applets, que sur les serveurs, avec les servlets. Mais sur le poste de travail il est concurrencé par d’autres solutions comme Flash d’Adobe, GWT (Google Web Toolkit), Javascript, PHP,… et bientôt par HTML5. L’utilisation de Java sur le serveur s’est traduit pas le développement du framework JEE (ancien J2EE : Java 2 Entreprise Edition) avec des produits comme Weblogic, WebSphere Application Serve, JBoss,… Mais dans le cas de traitements volumineux on bute sur des problèmes de performance.
Un des facteur clé du succès de Java est la JVM, « Java Virtual Machine » qui est un interpréteur de code Java. Elle fonctionne dans tous les environnement : Windows, MacOS, AIX, z/OS, MVS, OS/400, Linux, Unix, Android, Solaris, HP-UX, …. Elle fonctionne sur des processeurs temps réels notamment les systèmes à base de processeurs ARM, Power, Sparc,… Elle est intégrée dans des applications ou dans des ERP comme SAP avec NetWeaver. Cette universalité est permise par le byte-code. Le code source écrit en Java est dans un premier temps compilé pour produire un code intermédiaire proche du langage machine qui est ensuite interprété par la JVM. Notons que le code source n’est pas forcement du code écrit en Java mais peut utiliser un autre langage. 
Ainsi Java peut fonctionner dans tous les environnements : de la télécommande de téléviseur au mainframe. Du code développé sur une machine donné peut être repris sur n’importe quel autre système. C’est la grande idée du : « Write once, run everywhere ». La réalité est plus nuancée. C’est plutôt : « Write once, debug everywhere ». La portabilité n’est jamais parfaite et nécessite l’intervention régulière des développeurs. 
Java a quatre limites :
-   C’est fait un langage semi-compilé. Le code du byte-code est interprété au moment de l’exécution. Ceci fait qu’il s’exécute relativement plus lentement que du code compilé.
-      Les performances des applications sont médiocres à cause d’une gestion mémoire médiocre, des accès disques non-optimisés et l’interprétation du code,
-      Les coûts de développement des applications sont élevés car il est nécessaire de faire appel à des programmeurs de niveau Bac + 5 et la mise au point des programmes est longue,
-      La maintenance des applications écrites en Java est délicate. Le code est difficile à lire ceci fait qu’il est difficile de repérer l’endroit où il est nécessaire d’intervenir. Cast Software estime qu’il est 4 fois plus coûteux de maintenir du code Java que du Cobol "Erreurs de programmation : Java coûte plus cher que Cobol".
Dans ces conditions il n’est pas raisonnable d’envisager à court terme de remplacer les milliards de lignes de code écrit en Cobol par du Java. Les entreprises qui ont cherché à convertir leurs applications qui assurent le cœur de métier en Java ont eu des déceptions (voir « Les banques seront fidèles à Cobol plusperformant que Java » dans le Monde Informatique. Il existe maintenant un certain recul sur ce sujet. Afin d’en avoir le cœur net il serait souhaitable d’en profiter pour effectuer un certain nombre d’études quantitatives afin de mesurer les coûts de développement, de maintenance et d’exploitation de ces applications en Cobol et en Java. L’absence d’étude de ce type est un signe qui ne trompe pas.

Un choix stratégique

Cela ne veut pas dire que dans les années à venir on va revenir massivement au Cobol. Il y a des situations où il s’impose et d’autres cas où il existe de meilleures solutions. Il y a deux domaines où il s’impose et reste l’approche la plus efficace :
-      L’interface avec les bases de données. Les applications de gestion reposent sur la maîtrise de flux importants de données avec des saisies, des contrôles, des interfaces, des éditions,… Cobol effectuent ces traitements dans de bonnes conditions.
-      Les traitements batchs. Même si de plus en plus d’opérations se font en transactionnel une partie des opérations se font à l’aide de traitements périodiques. Ce sont, par exemple la paie, l’arrêté comptable, lafacturation,… Cobol effectue ces opérations de manière très efficace.
Dans ces deux cas il n’y pas de doute. Ecrire ces traitements en Java, en C ou en C++ n’est pas la solution la plus efficace.
Par contre il y a deux types d’application qui méritent réflexion :
-      Le transactionnel. Un nombre croissant d’opérations se font sous forme de requêtes envoyées à un site central suivi d’une réception quasi-instantanée de la réponse. C’est le domaine traditionnel du moniteur CICS qui est un système particulièrement efficace. Pour IBM, c’est une véritable rente cas sa solution est efficace. Elle est coûteuse car les redevances des logiciels sont chères et elle oblige de recourir à un mainframe qui est lui aussi coûteux. La situation est d’autant plus délicate qu’il n’y pas de solution concurrente sauf Tuxedo qui existe sur les machines fonctionnant sous Unix. Mais c’est un produit vieillissant. A l’origine il a été développé par les Bell Lab. Ensuite il a été acheté par Novell puis a été repris par BEA qui à son tour a été racheté par Oracle qui l’a finalement intégré dans son système Fusion Middleware. Manifestement Oracle ne croit plus au produit. Microsoft avait aussi essayé de proposer un moniteur transactionnel : MTS (Microsoft Transaction Server). Qui s’en souvient et surtout qui s’en sert ? En fait le marché pousse à utiliser des serveurs d’application comme Websphere, Weblogic, JBoss, .Net, Zend (PHP), … Ces systèmes sont intéressants mais posent encore de graves problèmes de performance.
-      Le poste client : Windows ou Web. De plus en plus de traitements se font sur le poste de travail notamment la saisie des données mais aussi la consultation des bases de données. Il existe une forte pression pour faire fonctionner l’application à l’intérieur du navigateur à l’aide de pages contenant du code JavaScript, PHP, HTML5,… Mais est-ce la bonne solution ? Comment sécuriser dans de bonnes conditions les transactions de saisie ?
Une des solutions consiste à développer sur le poste de travail et sur le serveur des programmes écrits en Cobol qui échangent entre eux des données à l’aide d’un protocole rapide et fiable. Or justement le compilateur de Micro Focus génère du byte-code qui peut s’exécuter sur les JVM du poste client ainsi que sur celle du serveur. Il est ainsi possible de faire fonctionner des programmes Cobol sur des micro-ordinateurs, des serveurs RISC ou des mainframes. 
De même IBM continu de miser sur le Cobol et propose à ses clients du monde des mainframes le compilateur « Cobol IBM for z/OS » qui est interopérable avec Java et CICS. De son côté Fujistu ([4]) propose des outils de migration de code Cobol vers des systèmes sous Linux. Mais est-ce que l’objectif est de faire migrer toutes les applications de gestion sur des serveurs à base de processeur Intel ? Il est certain qu’à puissance équivalente le coût des mainframes est nettement supérieur à celui des serveurs à base de PC. Mais les systèmes centraux ont l’avantage de la redondance, de la sécurité et de la fiabilité. Si on s’efforce de bâtir des architectures à base de serveurs-PC ayant des niveaux de qualité et de sécurité équivalents l’écart est moins net. 

Y-a-t’il une autre solution possible ?

Dans ces conditions on peut s’interroger sur la nécessité de quitter le Cobol et de trouver un langage plus performant et plus efficace. Il faut d’abord s’interroger sur l’échec ou le succès des cinq langages analysés ci-dessus : GAP, PL/1, Pascal, Basic et Java. Les trois premiers sont probablement définitivement mis au musée de l’informatique et ont peu de chance de ressusciter. Le Basic est victime de la politique confuse de Microsoft. A force d’essayer d’en faire un langage capable de tout faire il est devenu complexe et peu utilisable. Seul reste Java. 
Mais il faut se rappeler que l’informatique ne manque jamais de solutions mais peu perdurent. On constate que beaucoup de produits et de logiciels sont lancées mais peu réussissent et encore moins survivent à long terme. L’évolution des technologies informatiques a été caractérisée par l’apparition de centaines de produits, de logiciels, de protocoles,… qui ont aujourd’hui complètement disparus. Le cimetière des solutions informatiques est immense. En matière de langage qui se souvent de l’APL, de l’Algol, de Forth, de Perl, de Simula, de BPCL (l’ancêtre de C), de Logo, de Smaltalk, d’Eiffel, …. Tous ces langages ont eu leur heure de gloire avant de disparaître.
Un grand nombre de responsables pensent qu’il faut plutôt miser sur les ERP pour traiter la plupart des applications de gestion. Dans ce cas le choix du langage n’est plus un problème pour le client (par contre cela reste une préoccupation pour l’éditeur). Cela n’empêche que de temps à autre on constate que les paramétrages prévus ne permettent pas d’obtenir ce que l’utilisateur demande. Il est alors nécessaire de développer des programmes. Sous SAP il existe pour cela un langage spécifique : Abap. C’est une variante de Cobol. Depuis quelques années SAP a intégré à l’ensemble de ses outils de développement dans un système appelé NetWeaver dont le cœur est Java. De même Oracle, c’est aussi Java. D’abord par ce qu’elle possède depuis le rachat de Sun les droits sur le langage mais par ce qu’elle dispose aussi d’un catalogue impressionnant de logiciels intégrés avec Oracle E-Buisness Suite mais aussi PeopleSoft, JD Edwards, Siebel, Oracle Fusion,… Tous ces systèmes sont orientés Java.
Dans ces conditions certains responsables essaient de faire des mariages audacieux en bâtissant des « plateformes » avec un langage, Java, un serveur d’application, une base de données, différents progiciels et un EAI. Si l’ensemble de ces progiciels viennent d’un seul fournisseur les risques sont limités mais on a alors la crainte de devoir adopter des solutions qui ne sont pas toujours performantes. Quant à l’idée de prendre des produits venant de différents fournisseurs elle se heurte à de très nets problèmes d’intégration et donc d’efficacité.

Le problème de la formation au Cobol

Dans ces conditions l’idée de voir rapidement disparaître le Cobol ne semble pas très réaliste. Il est là et il va continuer de se développer. Il va donc falloir vivre avec pendant de nombreuses années. Mais y aura-t’il à l’avenir assez de cobolistes pour faire face à cette charge de travail d’autant plus que certains sont âgés et vont bientôt partir à la retraite. Il faut donc envisager de les remplacer. Mais il y a un petit problème : où se forme les nouveaux cobolistes ? 
Une étude récentede Micro Focus montre qu’il existe peu de formation à Cobol. Sur 235 formations supérieures à l’informatique recensées en France seulement quatre forment leurs étudiants à Cobol. Ce sont tous des IUT. Ce sont ceux de Paris V (Paris Descartes, avenue de Versailles), de Limoges, de Nancy et de Rodez. Le reste des étudiants est formé à Java et à toutes sortes de langages comme Caml, Ada, Goovy, PythonRuby, Delphi (avec Pascal Objet), …. ([5]). 
Cette indifférence au langage le plus répandu dans le monde n’est pas propre à la France. C’est un phénomène international. Dans une autre étude de Micro-Focus portant sur 119 universités situés dans les cinq continents ayant des enseignements informatiques seules 32 forment au Cobol, soit 27 %. C’est mieux que les 2,3 % de la France, mais cela montre le degré de déconnexion des universités et des écoles des besoins du marché. Bien entendu il est toujours possible d’apprendre seul le Cobol. Mais est-ce vraiment efficace ?

Voir sur le même sujet, sur ce blog :"Quel avenir pour le Cobol ?", paru le lundi 19 décembre 2011.



[1] - Cobol : 6 760 000 résultats. Recherches associées à Cobol : cours cobol, apprendre cobol, compilateur cobol, emploi cobol, tutoriel cobol, cobol pdf, inspect cobol et open cobol. 
[2] - Gary Barnett, directeur de la recherche chez Ovum estime que 90 % de toutes les transactions financière et 75 % de l’ensemble des transactions dans le monde allant du retrait d’argent à un DAB, à la réservation d’un billet d’avion ou à la saisie d’une facture se font à l’aide de programmes écrits en Cobol. Il évalue le nombre des transactions quotidiennes supportées par un programme écrit en Cobol à 30 milliards.
[3] - Cobol  a été créée en 1959. La dernière version date de 2002 et elle orientée objet.
[4] - Pour suivre l’actualité de Cobol voir le site : Cobol Center qui n’est pas très à jour mais a le mérite d’exister.

jeudi 17 octobre 2013

Quelques réflexions sur le développement de l’économie numérique

Le thème du développement économique grâce à l’économie numérique revient régulièrement. De temps à autre les pouvoirs publics l’évoquent mais, il faut bien le reconnaître, ce discours est rarement suivi d’effets. C’est un discours qui plait, cependant on ne sait pas très bien ce qu’il recouvre.
Ceci est dû au fait que la définition du domaine de l’économie numérique est très variable d’un interlocuteur à l’autre. Pour certain l’économie numérique correspond aux sites accessibles grâce à Internet comme Google, Facebook, … D’autres y ajoutent toutes les activités de commerce électronique réalisées grâce à Internet comme Amazon, Ventes Privées, Rue du Commerce, mais aussi les billetteries comme celle de la SNCF, d’Air France, d’Easyjet, de Ryanair…. Sur cette lancée il est logique de prendre en compte dans l’économie numérique l’activité des opérateurs téléphoniques. Il est alors nécessaire de prendre en compte les achats de PC, de tablettes, de smartphones,… qui sont indispensables pour accéder à ces sites. Dans ces conditions ne faut-il pas aussi ajouter les achats de serveurs, de progiciels, … Il est alors logique de compte dans l’économie numérique l’ensemble des développements informatiques qu’ils soient faits en interne ou en externe.
Comme on le voit le périmètre de l’économie numérique est très variable selon l’interlocuteur concerné. Dans ces conditions il est assez logique de constater que les conclusions qu’il est possible d’en tirer sont très variables selon la manière dont il est défini. Avant de lancer des plans d’actions et des stratégies il serait souhaitable de définir clairement le domaine concerné.

Trois approches possibles

Résumer l’économie numérique à Internet est une curieuse approche car le réseau n’est qu’un média. Il est vrai qu’il est universel. Aujourd’hui c’est le moyen de communication prioritaire. Derrière le terme d’Internet se cache le protocole TCP/IP qui tend à devenir le standard universel. Cependant il existe à côté de TCP/IP d’autres protocoles comme ceux de la téléphonie, de la radio, de la télévision numérique,… Ils résistent mais il est fort probable que dans les prochaines années tous ces transferts de données se feront sous TCP/IP. Cependant il faut être clair que le média n’est qu’une partie du domaine de l’économie numérique.
Il est aussi possible de définir l’économie numérique d’une seconde manière en affirmant que ce sont toutes les applications utilisant des micro-processeurs. Cette définition permet de prendre en compte les PC mais aussi les serveurs, les smartphones, les tablettes,… Tous ces équipements reposent sur l’emploi de micro-processeurs. Mais ce ne sont pas les seuls produits utilisant des micro-processeurs. Les appareils photographique, les caméscopes, le cinéma, la télévision,… ont aussi vu leurs équipements complètement changés par leur numérisation. Cela a profondément bouleversé le modèle économique du secteur de l’audio-visuel. Mais ce n’est pas le seul secteur concerné. Un nombre croissant d’activité classiques sont directement impactés par les micro-processeurs comme l’automobile, l’aviation, la machine-outil,…. La numérisation des opérations modifie en profondeur la création de la valeur. Tous ces équipements comprennent de nombreux micro-processeurs. Doivent-ils être pris en compte dans l’économie numérique ?
Derrière ces bouleversements une troisième révolution se profile. Elle concerne un certain nombre de services comme : la banque, la billetterie des transports, la publicité, l’assurance, la presse, l’édition musicale et de livre, la production et la diffusion de la télévision, l’enseignement supérieur, … Tous ces secteurs sont déjà profondément touchés la technologie. Des pans entiers de l’économie sont concernés par le numérique et ce processus ne fait que commencer.
Il est dans ces conditions envisageable de décomposer le domaine de l’économie numérique en trois segments différents :
·       L’informatique classique. Elle comprend traditionnellement les serveurs (Unix, Linux, Windows, Mainframe,…) et les équipes qui se trouvent sous l’autorité du directeur informatique. Ce domaine se compose des matériels, des logiciels système, des progiciels mais aussi des développements (internes et externes), le personnel d’exploitation et d’assistance,… Les dépenses de ce secteur sont parfaitement connues.
·       L’informatique des utilisateurs et des consommateurs. Elle est constituée par les parcs de PC, de tablettes, de smartphones,… Mais elle comprend aussi les serveurs qui sont sous leur responsabilité. A cela s’ajoute les achats de progiciels et de services. Dans de nombreuses entreprises l’informatique des utilisateurs représente un montant égal voir supérieur aux dépenses de l’informatique classique. Le développement du Cloud ne peut qu’augmenter le poids de ces dépenses. Mais on ne le sait pas toujours car ces opérations sont plus ou moins bien connues et elles sont noyées dans la masse des autres dépenses des unités décentralisées.
·       Les secteurs économiques directement impactés par l’économie numérique. Ce domaine est aujourd’hui constitué, pour l’essentiel, par le commerce électronique, la billetterie électronique (train, avion, hôtel, voiture, théâtre,…), la publicité sur Internet, les jeux électronique, l’édition électronique, la presse électronique, la vente de musique, … On peut s’interroger sur son extension à de nouveaux domaines comme la photographie, l’audio-visuel, en particulier la télévision ADSL,… On note que ce domaine s’étend rapidement à la vitesse des innovations technologiques et marketing. Le chiffrage des dépenses ou des chiffres d’affaires induit par ces activités sont difficiles à effectuer car les prestations classiques et celles dues à l’économie numérique sont confondues dans les comptes des entreprises
Cette typologie permet de clarifier les choses mais elle pose un problème : où mettre les télécommunications ? Ainsi la communication des données comme la voix sur IP peuvent être imputés à l’informatique classique ou à l’informatique des utilisateurs. Mais une importante partie des dépenses de télécommunication s’imputent au troisième segment. Or, ces montants sont particulièrement importants. Il est dans le monde de l’ordre de 1.700 milliards de dollars. Selon que ce montant est pris en compte ou est ignoré cela change le poids du domaine de l’économie numérique.

Une autre approche possible de l’économie numérique

Pour cette raison il est envisageable d’avoir une autre approche de l’économie numérique en se basant sur l’identification des fournisseurs. Il est possible d’identifier cinq segments :
-      Les fabricants de composants électroniques et informatiques. Ce sont les fabricants de processeurs, de mémoires centrales, de cartes électroniques mais aussi de disques durs, d’alimentation électrique, d’écrans,…
-      Les constructeurs de matériels. Ce sont les concepteurs et les fabricants de PC, de serveurs, de mini-ordinateurs et de mainframe mais aussi les fournisseurs de tablettes, de smartphones,….
-      Les éditeurs de logiciels. Ils développement des systèmes d’exploitation, des bases de données, des langages (compilateurs et interpréteurs), des environnements de développement, …. mais aussi des applications comme des ERP, des logiciels bureautique, des navigateurs,….
-      Les opérateurs de télécommunication. Ce sont les opérateurs classiques mais aussi des opérateurs spécialisés (mobile, ADSL, réseau d’entreprise, satellite, …). De plus on voit apparaître de nouveaux opérateurs comme les câblo-opérateurs, les collectivités locales, …
-      Les services informatiques internes et les outsourceurs. Ils achètent ou louent des matériels et des logiciels puis les exploitent. A cela s’ajoutent les développements spécifiques et la maintenance des applications mises en œuvre.
C’est une approche plus classique que la précédente. Elle repose sur l’identification des fournisseurs. C’est celle suivie par l’OCDE et les organismes statistiques comme l’INSEE (voir sur ce blog le message du 17 janvier 2012 : « Enfin l’INSEE prenden compte l’informatique »). Rappelons quand même que le chiffrage informatique de l’INSEE ignore curieusement une grande partie des dépenses des services informatiques des entreprises par contre elle prend en compte une partie de l’économie numérique comme l’édition, l’audiovisuel (y compris la télévision, la radio et le cinéma) et les télécommunications. Les cabinets d’étude de marché comme IDC, Gartner, PAC,… ont aussi une approche par les fournisseurs. Ces cinq segments représentent au niveau mondial un total des dépenses de l’ordre de 4.700 milliards de dollars. En France ce montant est de l’ordre de 120 milliards d’euros.
Mais, cette classification a un défaut. Elle masque l’immense domaine des applications et des usages de l’économie numérique. Or, nous l’avons vu, celui-ci est considérable et ne cesse de croître.

La prise en compte des usages

Pour appréhender le développement de l’économie numérique il est possible d’avoir une troisième approche basée sur l’analyse des usages. Il est ainsi possible de faire apparaître trois segments ([1]) différents :
-      La reprise de services existants. On fait la même chose que ce qui était précédemment effectué, éventuellement pour un moindre coût. L’exemple type de ce type d’activité est la billetterie d’avion ou de chemin de fer. Pendant un siècle et demi pour avoir un billet de train on allait à la gare et on faisait sagement la queue au guichet. Aujourd’hui le voyageur va, de son domicile, se connecter avec son PC sur le site du transporteur et il va effectuer le travail qui était fait jusqu’alors par le guichetier. L’existence du billet électronique est une innovation majeure qui permet au transporteur de réaliser d’importantes économies ([2]). Un nombre important de services ont déjà été repris de cette manière comme les très nombreux sites de commerce électronique, les sites d’enchères comme eBay, PAP, paruvendu, Vivastreet, ou au bon coin, les serveurs de musique, de films, de séries télévisées, de vente de livres électroniques, de revues ou de journaux numériques, …. A terme, la plupart des services vont fonctionner de cette manière.
-      La création de nouveaux services. Ce sont des applications nouvelles qui n’étaient pas envisageables sans serveur, sans PC, sans smartphone, sans tablette, sans Internet et sans le Web. Elles se traduisent par une augmentation significative de la valeur ajoutée créée par l’entreprise ou l’administration. Les moteurs de recherche ou les comparateurs de prix sont des exemples parfaits de ces nouveaux services. A priori ils sont gratuits mais par le biais de la mise en avant des sites et du paiement par clic ils permettent de réaliser des chiffres d’affaires considérables en particulier Google qui est une des plus belle machine à cash jamais inventée. De même les réseaux sociaux comme Facebook, Twitter, LinkedIn, Viadeo,… ont permis de fournir de nouveaux services.
-      La création de nouvelles activités. Ces services n’existent pas et ne sont envisageables qu’avec Internet et le Web. Sans ces nouveaux outils il n’est pas possible de les faire fonctionner. Elles se traduisent par une augmentation significative du chiffre d’affaires de ces entreprises et donc par un accroissement de la valeur créée. C’est, bien sûr, le vaste domaine du commerce électronique avec ses très nombreuses variations comme les jeux en réseau, les abonnements et les serveurs de streaming (musiques et images), les réseaux sociaux,… Entre dans cette catégorie de nombreuses applications concernant les entreprises comme, par exemple, le développement de produits en « concurrent engineering » à l’aide de puissants systèmes de CAO permettant de faire travailler simultanément plusieurs équipes de R&D sur un même projet. Ce sont des applications comme le suivi de la maintenance des camions en service et des avions en vol (anticiper la panne et planifier la réparation) ([3]), la gestion des compteurs électriques, de gaz ou d’eau dit compteurs intelligents ([4]), ….   
A ma connaissance il n’existe pas de statistiques permettant de chiffrer ces trois segments, à l’exception du curieux chiffrage de l’Inspection des Finances, qui n’est pas une véritable évaluation mais plutôt une estimation à la louche. Il est certain qu’ils ne représentent actuellement que quelques pour-cents du PIB mais à terme ils risquent de constituer une part significative de la richesse créée. Il est fort probable que le segment « création de nouvelles activités » sera la partie la plus significative du développement de l’économie numérique.

L’approche des cabinets de stratégie

Les grands cabinets de stratégie ont cherché à évaluer l’importance de l’économie numérique. En 2011 McKinsey s’est lancé dans une évaluation ([5]). Il a chiffré ce segment pour la France à 60 milliards d’euros en 2009 et estime qu’en 2015 il sera égal à 139 milliards d’euros soit 5,5 % du PIB. Il estime qu’en 2010 ce segment est la cause de 25 % de la croissance observée.
Le Boston Consulting Group a en 2012 estimé le poids économique mondial de l’économie Internet à 2.300 milliards de dollars en 2010 ([6]). Si on considère les pays membres du G-20 ce montant représente 4,1 % de leur PIB. A l’horizon de 2016 le BCG estime l’économie Internet à 4.200 milliards de dollars et il devrait atteindre à 5,3 % du PIB.
Comme on le voit ces deux estimations sont assez voisines l’une de l’autre. On notera qu’elles ne portent que sur la partie directement liée à Internet. McKinsey parle d’ailleurs de « filière Internet » comme on parle de la filière mines-sidérurgie-métallurgie ou de la filière textile. La notion est intéressante mais elle est assez curieuse. Aujourd’hui toutes les entreprises et presque tous les particuliers sont connectés à Internet. Dans ces conditions toute l’économie ou presque ferait partie de la filière Internet. Cette approche arrive assez vite à des limites à cause de l’ambiguïté de la définition du domaine couvert ([7]). L’économie numérique ne peut pas uniquement se définir par l’usage d’Internet.

Arriver à dégager une réelle vision stratégique

Une autre approche intéressante consiste à partir des entreprises. Un nombre croissant d’entre elles s’intéressent à l’économie numérique. C’est le cas des grandes entreprises comme Vivendi ou Bouygues qui se sont lancées avec succès dans les télécommunications. Mais elles ne sont pas nombreuses en France. Curieusement les stratégies publiques ne misent pas sur les grandes entreprises mais sur le développement des start-up ([8]). Mais combien d’entre elles réussissent ? Heureusement, il existe quelques nouvelles entreprises basées sur les nouvelles technologies qui réussissent mais c’est assez rare. Là aussi, on dispose de peu de statiques mais on est loin des 10 % annoncés pas les défenseurs du venture capital. On est plutôt à 1 %. Or, en matière de création d’entreprises, dans le secteur traditionnel on considère qu’au bout de 5 ans environ 50 % des entreprises créées survivent. Ces deux chiffres expliquent le faible développement en France du financement de ce type d’entreprise par le capital-risque.
Il faut le dire, le développement d’entreprise à partir de rien comme cela a été le cas de Google est une situation très rare en France. De mémoire ces cas sont très rares. On peut citer le cas de Business Object qui a fini d’être racheté par SAP mais il n’y en a pas beaucoup d’autres.
Généralement après un décollage rapide la start-up est rachetée par une grande entreprise du secteur qui cherche un marché, des produits, une technologie, une équipe, une nouvelle clientèle,… L’idée que parmi ces nombreuses micro-firmes il y a une future Google ou une nouvelle Amazon est un doux rêve. La probabilité que cela arrive est très voisine de zéro. Ce n’est pas de la stratégie mais un pari perdu d’avance.
Les entreprises du secteur de l’économie numérique ont le choix entre trois stratégies de développement possibles :
-      Le géant innovateur. L’exemple parfait de ce type d’entreprise est Samsung (jadis c’était le cas de Sony). Cette firme a été capable de passer de la télévision, aux composants électronique, puis au téléphone pour arriver aux smartphones et aux tablettes. Ce type d’entreprise a su développer une capacité à saisir très rapidement les évolutions du marché (sentir les tendances), de faire des choix et de les mettre en œuvre en mobilisant des moyens considérables. Elles manifestement une agilité exceptionnelle à saisir les opportunités dès qu’elles apparaissent. Leur force est d’être capable de sortir en quelques mois un nouveau produit, de le fabriquer en masse et d’inonder le marché mondial grâce à un marketing très efficace. On peut trouver ce type d’entreprise dans de nombreux segments économiques. Ainsi Samsung qui n’avait pas un passé flatteur en matière informatique s’est imposé sur le marché des smartphones puis sur celui des tablettes au détriment des leaders antérieurs qui n’avaient pas la même agilité ni un tel dynamisme.  
-      L’extension de l’offre. Ce sont des entreprises comme Apple, IBM,… Elles sont capables de faire rapidement évoluer leur offre. IBM a été le leader mondial des mainframes puis a lancé le PC, bouleversé le marché de l’informatique et réussit à tuer tous ses rivaux. Après avoir été le leader du matériel informatique IBM a été capable de se redéployer dans le secteur des services. De même Apple est passé du micro-ordinateur au baladeur, puis au smartphone à la tablette et maintenant au cloud. Aujourd’hui elle est devenue la première entreprise du secteur informatique avec un chiffre d’affaires de 156,5 milliards de dollars en 2012 devant HP ou IBM. La technologie est un moyen de créer de nouveaux marchés, de conquérir des parts de marchés et de dégager des taux de marge nette exceptionnels.
-      Le créateur de nouveaux services : Google, Amazon, eBay,… Ce ne sont pas forcément les premiers à être présents sur ces marchés mais ces entreprises ont été capables de proposer une solution technique efficace et une approche économique fortement rentable. Aux USA les réussites de ce type sont nombreuses. Mais en Europe il y en a peu. Des entreprises comme Télémarket, Alapage, Excelead, Travelprice, Lastminute… n’ont jamais réussi à trouver leur marché. Ceci dit il y a eu quelques succès comme PrimeMinistère, RueduCommerce ou Ventes Privées. On note que ces réussites relèvent plutôt du domaine du commerce électronique que des offres de nouveaux services. Les succès européens dans ce domaine sont rares car dès que ces entreprises prennent une certaine ampleur elles se font racheter par des opérateurs mondiaux.
Il est aujourd’hui très difficile de chiffrer l’importance respective de ces trois segments. Il est probable que dès aujourd’hui le troisième segment est le plus important et, dans les années à venir, son poids ira croissant. Les nouveaux services sont indiscutablement les moteurs du développement de l’économie numérique.
Ce n’est pas le choix du gouvernement qui, dans sa feuille de route, a fait le choix de privilégier le développement d’un réseau à très-haut débit en fibre optique jusqu’au domicile des utilisateurs (Voir sur ce blog le message du 11 avril 2013 : « Est-ce le début du commencement ?»). C’est un investissement considérable. On n’ose même pas afficher son coût global. La feuille de route de Fleur Pellerin estime qu’il faut prévoir un budget de 20 milliards d’euros pour couvrir 53 % des français. Mais que va-t-on faire pour les 47 % restant. On ignore totalement ce que cela va coûter. Ce choix est à mettre au crédit d’un puissant lobby militant pour hâter « l’extinction du cuivre » mais est-ce que ce sera suffisant pour développer le secteur de l’économie numérique ?
D’autres groupes de pression mettent en avant d’autres domaines comme l’éducation, la santé ou le développement du service public. Effectivement il existe certainement des applications intéressantes dans ces domaines mais il est peu probable que dans ces différents secteurs on trouve une application qui sera le moteur de la croissance et entraînera un développement économique significatif. Cela fait des années qu’on parle du DMP (Dossier Médical Personnel). On a dépensé en 8 ans 210 millions d’euros sans obtenir de résultats significatifs.
L’équipement des écoles, des collèges ou des lycées, l’informatisation des hôpitaux, des ministères et des collectivités locales, ont été des gouffres financiers avec des résultats mitigés. Croire que ces opérations seront les futurs moteurs de la croissance est une idée naïve ou le résultat d’un lobbying efficace. 
Comme nous n’avons pas en France de géant innovateur comme Samsung et ni de fournisseurs informatiques puissants capables d’étendre et de développer leur offre (Bull, Alcatel ou Orange ne sont pas des candidats crédibles) il ne reste que la troisième stratégie consistant à créer de nouveaux services. Les besoins sont là. Il serait souhaitable d’inciter les entreprises existant à saisir ces opportunités.




[1] - L’Inspection des Finances (« Mission d’expertise sur la fiscalité del’économie numérique » janvier 2013 dit rapport Collin et Colin des noms de ces deux auteurs) identifie quatre segments :
·       Le cœur de l’économie numérique : technologies de base, infrastructures, télécommunication, applications et services informatiques, économie du Net : 5,2 % du PIB soit 104 milliards d’euros.
·       Les secteurs transformés par la numérisation : édition, musique, audiovisuel, finance, assurance, publicité, R&D, voyagistes,… 12 % du PIB soit 240 milliards d’euros.
·       Les secteurs qui ont dégagés des gains de productivité sans être transformés par les TIC : 60 % du PIB soit 1.200 milliards d’euros.
·       Les secteurs peu ou pas touchés par la numérisation : 22 % du PIB soit 440 milliards d’euros.
Selon ce schéma près de 80 % de l’économie serait concernée par l’économie numérique. Collin et Colin vont un peu vite en besogne.
[2] - Par contre on ne compte pas le temps passé par le client pour trouver le bon train, l’horaire recherché et effectuer le paiement.
[3] - Demain cela sera le suivi médical à distance. Le patient mène sa vie et par son smartphone il informe la base de données de son médecin qui déclenche, s’il y a lieu, des alertes. Ce type d’application existe déjà notamment pour le suivi des maladies de longue durée comme le diabète. On peut envisagée des applications de suivi en cardiologie, notamment pour les personnes âgées, en pharmacologie (trouver le bon dosage du médicament), en analyse sanguine,… 
[4] - Ces applications sont à la fois des créations de nouveaux services et des créations de nouvelles activités : le remplacement du compteur bleu par le compteur Linky permet dans un premier temps de supprimer le travail de relève mais dans une deuxième étape EDF promet des applications pour les utilisateurs permettant de réduire la consommation électrique.
[7] - Ainsi personne ne cherche pas à valoriser l’économie du crayon bille pourtant il est d’un large emploi. Beaucoup d’opérations sont encore faite à l’aide de cet outil. D’ailleurs doit-on prendre en compte dans ce montant celui des contrats signés à l’aide de ce stylo ? On pourrait de même chercher à calculer le montant de l’économie papier. Mais est-ce raisonnable ?
[8] - Il est curieux de noter que le terme « start-up » a été traduit en français par celui de « jeune pousse ».

samedi 6 juillet 2013

Economie numérique : la France classée en 2013 au 26ème rang mondial par le Forum de Davos

La position de la France dans le secteur de l’économie numérique continue de se dégrader. En 2009 la France était classée en 18ème position par le World Economic Forum. En 2011 elle avait glissé à la 20ème place. En 2013 la dérive est confirmée avec une descente au 26ème rang. Ce dévisage était prévisible. C’est la conséquence d’une série d’erreurs stratégiques faites depuis de nombreuses années notamment par les gouvernements successifs mais aussi par les nombreuses entreprises intervenant dans le domaine de l’économie numérique sans compter les universités et les grandes écoles. A force de ne pas apprécier correctement les enjeux, on finit par prendre des mesures prises sont peu efficaces, voir contre-productives. Il serait temps de prendre au sérieux l’économie numérique.  

Le classement du World Economic Forum

Le World Economic Forum sait le rôle stratégique de l’économie numérique et effectue tous les ans une étude cherchant à évaluer le degré de maturité des différents pays du monde dans ce domaine (Voir sur ce blog le message du 19 mars 2012 : " Leclassement informatique du World Economic Forum : Une triste réalité" ). Cette étude est faite en collaboration avec l’INSEAD. Le rapport « Global Information technology Report 2013 » peut être librement téléchargé. Je ne peux que vous inciter à lire et étudier ce rapport riche en enseignements.

1er page du rapport  du World Economic Frum sur les TIC
 Il porte cette année sur 144 pays. On aurait aimé de constater les progrès de notre pays grâce aux plans Besson 1 et 2 (Voir sur ce blog le message du 14 Janvier 2012 : « Besson, le retour : le nouveau plan de développement de l’économienumérique (2012-2020 »). Le résultat est décevant. Non seulement la position de la France ne s’améliore pas mais elle se dégrade.
Par contre il est trop tôt pour porter un jugement sur l’impact du plan de Fleur Pellerin car sa « feuille de route » date du mois de février 2013 (Voir sur ce blog le message du 11 avril 2013 : « Est-ce le début du commencement ?»). On verra l’an prochain si elle a eu un impact et quel est son ampleur.
Pour mesurer le degré de maturité le World Economic Forum mesure un indicateur global : le NRI : Networked Readiness Index reposant sur 54 paramètres classés en 4 domaines. Ils concernent :
·    Les infrastructures des TIC, les coûts d’accès aux réseaux et la disponibilité des compétences requises pour un usage optimal ;
·     L’acceptation et l’utilisation des TIC par les gouvernements, l’économie et la population ;
·      Le contexte économique et le climat novateur, le cadre politique et réglementaire ;
·      L’impact économique et social des TIC.

La valeur de l’indicateur du premier du classement, la Finlande, est égal à 5,98, alors que le dernier est la Burundi classé 144ème avec un montant de seulement 2,30. Celui de la France est égal à 5,06 encadrée par ceux des Etats Arabes Unis et de l’Irlande. Les pays voisins du notre ont des index nettement supérieurs au notre. Ainsi l’Allemagne est à 5,43 et se trouve classée en 13ème place et la Grande Bretagne avec une note de 5,64 est en 7ème place. En se classant en 26ème place la France est bien en situation fragile et de plus celle-ci se dégrade rapidement.

Le classement des 144 pays 
Les premiers de la classe

L’analyse des pays en tête du classement est très intéressante. En le comparant au classement de 2012 on constate que ce sont presque toujours les même Etats, seul l’ordre entre eux change. La Finlande qui était 3ème devient la 1er du classement et, à l’inverse la Suède passe de la 1er à la 3ème place. Il est frappant de constater que sur les dix premiers pays du classement sept sont européens et ce sont tous des états de l’Europe du Nord ou assimilé : la Finlande, la Suède, les Pays-Bas, la Norvège, la Suisse, la Grande Bretagne et le Danemark. Il n’y a aucun pays de l’Europe du Sud en tête de ce classement !

Le hit-parade des Etats ayant le meilleur indice NRI
Dans la liste des dix premiers on note la sortie du Canada qui était 8ème position en 2012 et passe au 12ème rang en 2013. A l’inverse en 10ème place apparaît Taïwan qui était avant au 11ème rang.
On notera dans ce classement que Singapour était l’an passé en 2ème place et le reste. Quant aux USA ils perdent une place et passent du 8ème au 9ème rang. Comme on le voit les mouvements sont de faibles amplitudes. Il y a cependant l’exception de la Grande Bretagne qui gagne trois places en passant du 10ème au 7ème rang.
On notera que juste après les pays de l’Europe du Nord on trouve assez regroupé les Tigres Asiatiques : Singapour (2ème), Taïwan (10ème), la Corée du Sud (11ème) et Hong-Kong (14ème). Manifestement ces pays ont réussi à développer des approches efficaces et ont effectués les investissements nécessaires dans le domaine des TIC. On notera que le Japon se détache des Tigres pour être relégué en 21ème place.
Dans l’ensemble on constate que les changements d’une année sur l’autre sont minimes et se traduisent par de faibles mouvements. Manifestement les pays leaders ont trouvé la bonne formule et ils l’appliquent avec régularité.

Les médiocres et les traînards

Quand on compare les états de l’Europe du Nord et l’Europe du Sud on constate des différences significatives. Les pays de l’Europe du Nord sont classés entre la 1er et la 8ème place à l’exception de l’Allemagne qui se trouve au 13ème rang, le Luxembourg en 16ème, l’Autriche en 19ème et la Belgique en 24ème position (2 places avant la France).
L’Europe du Sud commence à partir de la 26ème place avec la France, puis l’Espagne (38ème), le Portugal (33ème), l’Italie (50ème), la Grèce (64ème),…. Il y a manifestement en Europe deux approches différentes des TIC. L’Europe du Nord fait les bons choix, réalise les bons investissements, dégage une contribution significative des TIC à l’augmentation de la valeur ajoutée et crée de nombreux emplois qualifiés. Les autres ont plus de mal à dégager des résultats significatifs.
Il est à noter que les BRICS, qui sont habituellement présentés comme les espoirs de la croissance de demain, se situent dans le classement du WEF entre la 50ème et la 70ème place : Brésil (60ème), Russie (54ème), Inde (68ème), Chine (58ème) et l’Afrique du Sud (70ème). Manifestement ces pays, qui sont censés prendre dans les années à venir le relais des pays développés, seront tôt ou tard freinés par leurs retards dans le domaine des investissements en TIC.
Les pays se trouvant dans la deuxième partie du tableau (à partir du 73ème rang) sont pour l’essentiel des états d’Afrique, d’Amérique Latine ou d’Asie comme l’Argentine (99ème), l’Iran (101ème), le Pakistan (105ème), le Venezuela (108ème), le Nigéria (113ème), le Bengladesh (114ème), l’Algérie (131ème), … Ces états n’ont pas de politique claire dans le domaine des TIC et n’ont pas effectué les investissements nécessaires. Ils sont pénalisés par leur faible niveau de leur PIB et par le médiocre niveau de leurs investissements. Dans ces conditions ils auront beaucoup de mal à bénéficier des avantages des TIC dans les années à venir.

La notation des quatre domaines

L’Index NRI est basé sur 54 variables dont 27 sont des indicateurs quantitatifs et les 27 autres proviennent d’une enquête faite auprès d’un large panel de décideurs. Ils sont regroupés dans quatre domaines qui se décomposent en 10 piliers :
·       L’environnement
o     L’environnement politique et la régulation, 9 indicateurs : l’efficacité des lois, les lois relatives aux TIC, l’indépendance de la justice, l’efficacité du système légal, le taux de piratage,…
o   L’environnement des affaires et l’innovation, 9 indicateurs : la disponibilité des dernières technologies, l’existence du capital venture, le montant des taxes par rapport aux profits, le nombre de jour pour créer une nouvelle entreprise, le pourcentage d’étudiants de l’enseignement supérieur,…
·       La facilité à mettre en œuvre
o   Les infrastructures et les contenus digitaux, 5 indicateurs : le taux de couverture des réseaux mobile, la bande passante disponible, le nombre de serveurs internet sécurisés,…
o   La facilité d’accès, 3 indicateurs : les tarifs des mobiles et de la bande passante Internet fixe, la compétition dans le secteur d’Internet et de la téléphonie.
o   Les compétences, 4 indicateurs : la qualité du système d’éducation notamment en math et en science, le pourcentage d’enfants suivant l’enseignement secondaire et le pourcentage d’adultes sachant lire et écrire.
·       Les usages
o   Les usages individuels, 7 indicateurs : le pourcentage de téléphone mobile, de personnes utilisant Internet, de ménages ayant un ordinateur, de ménages ayant un accès à Internet,…
o   Les usages dans l’entreprise, 6 indicateurs : la capacité des entreprises à prendre en compte la technologie, sa capacité d’innovation, le nombre de brevets, l’usage d’Internet en BtoB et en BtoC, la formation des salariés.
o   Les usages de l’administration, 3 indicateurs : la vision des TIC par le gouvernement, le nombre de services en ligne, le succès de la promotion des TIC par le gouvernement.
·       L’impact
o   Les impacts économiques, 4 indicateurs : l’impact des TIC sur les nouveaux services et les produits, les brevets concernant les applications des TIC, l’impact des TIC sur les nouveaux modes d’organisation, le poids des effectifs concernés par les activités de connaissances.
o   Les impacts sociaux, 4 indicateurs : l’emploi des TIC pour faciliter l’accès aux services de base, l’accès Internet dans les écoles, l’efficacité de l’informatique publique et un indice pour évaluer l’e-participation.
Comme on le voit ces indicateurs couvrent un large domaine. Cependant, il manque, à mon avis, quelques indicateurs significatifs tel que le montant et la rentabilité des investissements effectuées dans le secteur des TIC, la valeur ajoutée crée par ces investissements, le poids des investissements dans les TIC par rapport au total des investissements des entreprises, les effectifs informatiques et ceux concernés par les systèmes d’information,….

Les raisons du mauvais positionnement de la France

Comme nous l’avons vu la France ne se trouve pas dans le peloton de tête mais plutôt dans le lot des pays ayant des indicateurs médiocres et de plus, depuis 2009, sa position ne cesse de se dégrader. On se rappellera que cette situation fait suite à une légère remontée de la 23ème à la 18ème place entre 2006 et 2009. A cette époque le développement de l’économie numérique était considéré comme une priorité nationale. Mais, manifestement elle n’a pas résisté à la crise et le secteur des TIC en France l’a subit de manière plus significative que d’autres pays.
En fait la valeur du NRI de la France est très stable dans le temps. Il a aujourd’hui la même valeur qu’en 2007 : 5,1. Il a même légèrement augmenté en 2008 à 5,2 puis il est retombé à 4,9 en 2010. En fait, ce qui a changé ce n’est pas l’index de la France mais ceux des autres pays qui ont profité de l’après-crise pour effectuer des efforts importants dans le domaine des TIC et ainsi améliorer leur position concurrentielle.

Fiche d'évaluation NRI de la France en 2013
Si on analyse en détail la fiche de la France (page 183 du rapport) on s’aperçoit que notre pays est mal positionné dans les quatre domaines identifiés tout particulièrement dans celui de l’environnement (27ème) et la facilité de mise en œuvre (26ème). Elle est par contre moins mal située dans le domaine des usages (22ème) et dans celui de l’impact (20ème), sans que ce soit pour autant brillant. On notera que ces deux derniers domaines dépendant moins de l’Etat que les deux premiers qui dépendent directement des politiques publiques mises en œuvre.
Si on pousse l’analyse au niveau des dix piliers on constate que trois sont particulièrement fragiles :
·       La facilité de mise en œuvre : 86ème. Ceci est dû aux tarifs des télécommunications notamment ceux des mobiles qui sont trop élevés,
·     L’environnement des affaires et l’innovation : 39ème. Plusieurs facteurs expliquent cette situation notamment le poids des taxes sur les bénéfices, la faible activité du venture capital, le faible niveau des achats publics dans les nouvelles technologies et le nombre limité d’étudiants dans l’enseignement supérieur,
·       L’impact social : 32ème. Ceci est dû au faible usage d’Internet dans les écoles et l’emploi limité des TIC pour faciliter l’accès aux services de base.
Comme on le voit il serait assez simple de corriger ces faiblesses, il suffit d’en avoir la volonté. Heureusement à côté de ces points faibles il y a quelques points forts :
·       Les impacts économiques : 17ème. On note l’impact positif des TIC sur les nouveaux services et les produits et les brevets concernant les applications des TIC.  
·        Les usages dans l’entreprise : 18ème. Ceci est dû à la capacité d’innovation et le nombre de brevets.
Mais ces quelques points forts ne sont pas suffisants (en nombre et en niveau) pour contrebalancer l’effet des nombreux points faibles.

Se comparer aux meilleurs

Si on compare la France et la Finlande, 1ère du classement, on constate une différence fondamentale : la France a peu de points d’excellence et un nombre significatif de points faibles. Elle n’a qu’un seul indicateur sur 54 classée  1er et aucun indicateur se trouvant entre la 2ème à la 4ème place. La Finlande, au contraire, a 18 indicateurs dans les quatre premières places dont 4 sont classés premiers. Elle a aussi des points faibles mais ils sont nettement moins nombreux que ceux de la France. La Finlande a ainsi 5 indicateurs situés au-delà du 40ème rang alors que la France en a 12.

Fiche d'évaluation de l'indice NRI de la Finlande en 2013

La comparaison entre la France et la Finlande, mais aussi les autres pays situés parmi les dix premiers du classement, montre que la situation française est grave mais elle n’est pas pour autant désespérée. La plupart des faiblesses constatées sont dues à des choix politiques inadaptés. Il faut arrêter de distribuer des sucres d’orges à tous les lobbys et fixer des priorités claires permettant d’améliorer l’impact des TIC sur l’économie. Dans ces conditions on peut s’interroger sur les choix de la « Feuille de Route » de Fleur Pellerin et ses 18 mesures. Est-ce qu’en mobilisant 20 milliards d’euros sur la généralisation de la fibre optique jusqu’au domicile de 53 % de la population on va significativement améliorer la position de la France dans le classement (Voir sur ce blog le message du 11 avril 2013 : « Est-ce le début ducommencement ?»). Il existe peut-être des mesures moins coûteuses permettant d’améliorer la bande passante disponibles. L’idée de remplacer en quelques les millions de kilomètres de fils de cuivre par de la fibre optique est typiquement un plan suggérer par une entreprise et renforcée par un lobby puissant pour affirmer son pouvoir sur ses concurrents et imposer des prix déraisonnables.

Et maintenant que faire ?

Dans ces conditions que devrais faire un gouvernement soucieux d’améliorer la situation des TIC ? On s’était déjà posé la question l’an passé (Voir sur ce blog le message du 19 mars 2012 : « Le classement informatique du WorldEconomic Forum : une triste réalité »). Je m’étais alors permis quatre suggestions :
1.      Ne pas hésiter à s’inspirer des pays voisins se trouvant en tête du classement comme la Suède, la Finlande, la Suisse ou le Danemark. Il n’y a pas de honte à copier les bons éléves.
2.      Améliorer l’environnement économique et notamment en simplifiant le contexte administratif et réglementaire tout particulièrement en luttant contre les nombreux dysfonctionnements de la justice commerciale et de son administration. 
3.      Avoir une politique publique positive en faveur des TIC basée sur une vision claire de l’impact des TIC sur le développement économique. Il faut faire connaître les succès et diffuser les bonnes pratiques.
4.      Réduire la tarification des télécommunications. L’action de Free dans le domaine du téléphone mobile est un premier pas mais il y a encore des progrès importants à réaliser dans ce domaine.
A cette liste je me permets d’en ajouter deux autres (Voir sur ce blog le message du 4 octobre 2012 : «Pour un plan de développement de l’économie numérique ») :
5.      Inciter les entreprises moyennes et grandes à investir dans les TIC. Tous les plans publics misent sur les PME mais, en règle générale, les petites entreprises investissent peu, font peu de recherche-développement et ont du mal à trouver des financements pour se développer. Il faut au contraire miser sur le rôle des grandes entreprises. Le succès des Apple, Samsung, Huawei, Google,… montre la voie à suivre.
6.      Favoriser les capacités des entreprises à l’exportation. Les entreprises françaises du secteur de l’informatique sont traditionnellement peu orientées vers l’exportation. Pour les aider à agir plus efficacement il est souhaitable de favoriser les coopérations entre les entreprises. Les grandes entreprises industrielles et commerciales présentes sur le marché mondial doivent être incitées à intervenir dans ce domaine et faciliter la présence au niveau mondial des PME du secteur de l’économie numérique.
On pourrait multiplier les mesures possibles mais ce qui manque réellement c’est la volonté d’agir de l’Etat mais aussi des entreprises concernées. Que ce 26ème rang peu glorieux leur donne la volonté d’agir !

Voir sur le même sujet sur ce blog :"Le classement informatique du World Economic Forum : Une triste réalité", paru le lundi 19 mars 2012, "Le Classement du World Economic Forum 2014 : France est-ce la fin de la chute ?" paru le vendredi 2 mai 2014 et "Le Classement du World Economique Forum 2015 : La France perd une place" paru le mercredi 10 juin 2015.