Catégories
Uncategorized

L’apport de l’informatique dans les calculs prédictifs

Maj le 8/4/22

De tous temps, l’homme a cherché à prédire l’avenir.

La physique et les mathématiques, les sciences dures, progressent, et il est avéré d’affirmer qu’elles sont très souvent dans une temporalité antérieure à leurs applications. Par exemple – tout simplement – la théorie héliocentrique de Copernic est prédictive de la réalité astronomique, et ceci de nombreuses années avant que l’ensemble de la population ne l’admette, la reconnaisse ou mieux l’observe. Et à quel prix …

De nos jours, les théories scientifiques et la modélisation de la réalité physique aboutissent à des calculs prédictifs complexes, qui nécessitent des moyens techniques et informatiques considérables. Et les autres sciences, dites « molles » par opposition, autres que les mathématiques et la physique, sont par voie de conséquence, concernées. L’ économie, la géologie, la démographie, la sociologie, etc. utilisent elles aussi désormais l’informatique pour les calculs prédictifs.

Heureusement, la loi de Moore, l’innovation et l’équipement, permettent aux ordinateurs (bel et bien programmés par le génie humain) une croissance exponentielle de la rapidité des calculs complexes. Dès lors, la prédictibilité de nombreuses réalités se voit, de nos jours, grandement améliorée.

La transformation numérique, ou digitalisation, ou bien encore disons les progrès de l’informatique, sont donc des facteurs d’amélioration de la prévision. A l’ère naissante de l’informatique quantique, ce paradigme se voit confirmé.

Prévoir, anticiper ce qu’il adviendra dans de nombreux domaines est une activité commune entre le génie humain et la puissance de calcul des machines informatiques. Prédire, c’est un enjeu politique, civil et militaire mais aussi économique, individuel et collectif.

Illustrons avec quelques exemples les formidables évolutions de la prédictibilité.

La météorologie : Plus personne ne s’étonne de la fiabilité extraordinaire de la PNT (prévision numérique du temps), dans l’heure, à 24 heures, 48h, voire même à 10 jours. C’est bien aussi grâce à la transformation numérique des institutions et sociétés prévisionnistes qu’une telle fiabilité prédictive est atteinte. Notez bien que ces entités disposent d’une puissance de calcul considérable. On parle de super-calculateurs, dont le développement peut nécessiter plus d’un milliard d’euros. Par ailleurs la fiabilité et la précision de la prévision sont intimement liées à la discrétisation du modèle atmosphérique d’une part et à la puissance de calcul informatique d’autre part. En 2021, les prévisions relatives au type de temps (anticyclonique, régime perturbé, etc.) et aux températures sont aujourd’hui fiables jusqu’à 15 jours, contre 8 jours il y a une vingtaine d’années. Impressionnant !

+

La biologie et la santé : L’apport de l’imagerie médicale avancée et de l’intelligence artificielle n’en sont qu’à leurs débuts. Diagnostiquer, c’est prédire mais aussi analyser , objectiver, observer, écouter. De fait, disposer de l’imagerie, c’est inspecter grâce à l’informatique le corps humain; utiliser des bases de données cliniques, c’est de plus aider à affiner la prédictibilité et l’évolution. A développer, à bientôt …

+

Le calcul des coûts prévisionnels de produits: Il est important lorsque l’on crée un nouveau produit voué à être commercialisé, de pouvoir anticiper autant que faire se peut le coût de fabrication de ce produit. Traditionnellement, l’approche analytique s’est imposée. Elle consiste à décomposer le produit en ses différentes pièces, et à quantifier unitairement le coût de ses pièces, auquel on ajoutera le coût d’assemblage notamment. En bref, tout est décomposé: la somme des charges de travail, des matières premières, des coûts d’usinage et d’assemblage permet la prédiction du coût unitaire.

Mais, de nos jours, grâce à la mise en œuvre de puissants algorithmes statistiques, à base d’intelligence artificielle, une nouvelle approche est possible: on procède non pas par analyse mais par comparaison avec des produits similaires ayant déjà été créés et pour lesquels on bénéficie à l’avance des coûts de fabrication unitaire. L’algorithme déduit des données existantes les facteurs de coûts (couleurs, taille, dimensions, matériaux, etc.), leur pondération dans l’impact coût, et permet ainsi de donner une estimation prédictive quasiment instant.

+

Les transports : marche, deux-roues, automobile, trains, avions, bateaux / prédictibilité du traffic. à développer, à bientôt…

La macroéconomie : inflation, croissance , récession, emploi, revenu A développer, à bientôt …

Les marchés financiers: dans sa légitime recherche de subvenir à ses besoins, l’être humain souhaite s’enrichir, légalement. Jadis réservé à quelques spécialistes agités, crayons et papiers en main autour d’une corbeille, l’informatique popularisée permet à bon nombre d’accéder aux marchés financiers dans une optique d’investissement complémentaire à l’acquisition de biens matériels. Face aux variations qui peuvent sembler erratiques du cours des matières premières, des monnaies, des actions et options, la notion de prédictibilité via l’outil informatique prend tout son sens. Si des modèles prédictifs permettent de nos jours une anticipation de la météorologie, alors pourquoi ne serait-il pas possible de prévoir les variations des cours ? Puisque la puissance de calcul a augmenté selon la loi de Moore, à tendance exponentielle, alors qu’en est-il de la capacité via le numérique à prévoir la tendance d’un marché ?

Les mathématiques avancées sont massivement utilisées par les professionnels du domaine. Des robots informatiques traitent bon nombre de transactions, d’achats et de vente. Mais l’algorithmique de ces robots est définie par des humains. Alors quels sont les signaux d’achat et de vente ? Le propos de ces lignes n’est pas de fournir une quelconque martingale, mais d’observer voire d’appliquer deux grandes approches de l’analyse des marchés à vocation prédictive: l’approche chartiste, ou graphique d’une part, et l’analyse fondamentale d’autre part. Si cette dernière s’appuie sur des factualités micro et macroéconomiques, géopolitiques, l’analyse graphique (ou chartiste) possède cette esthétique singulière qui consiste à s’appuyer sur des postulats de tendance décorrélée des sous-jacents. Ainsi, bon nombre de chartistes, s’appuyant exclusivement sur les performances ou sous-performances graphiques passées, vont déduire par extrapolation les tendances à venir. Supercherie ou génie ? Tout comme dans l’épidémiologie, la météorologie, où l’on sait prévoir -grâce au modèle- ce qu’il va advenir, il en est en partie question pour l’évolution des cours, et ceci, pour les chartistes, sans se préoccuper de l’analyse fondamentale. Prenons un exemple avec la théorie des vagues d’Elliot. Elle existe certes depuis près d’un siècle, mais sa mise en application est aujourd’hui rendue possible, via le numérique, à quiconque souhaite investir dans les valeurs mobilières. Détaillons le scénario, dans le cas d’une hausse de la valeur – ou de l’indice-. Nous posons comme hypothèse une liquidité importante de l’objet considéré. Cette théorie nous décrit qu’une phase de hausse est constituée de cinq étapes, en segments de droite, selon la séquence temporelle suivantes :

  • 1 une hausse du cours du point A vers le point B
  • 2 une baisse du cours du point B vers le point C, le cours au point C étant situé entre A et B
  • 3 une hausse du cours du point C vers le point D, le cours au point D étant supérieur à yB
  • 4 une baisse du cours du point D vers un point E, le cours au point E restant supérieur à yB
  • 5ème et dernière phase vers le point F, avec yF >yD

Et donc, si l’on repère une tendance à la hausse, on serait en mesure de prédire son évolution par application. On ne détaille pas ici les étapes suivantes, de consolidations. A noter que cette prédictibilité est symétriquement réversible pour les tendances de baisse.

En quoi ceci n’est-il pas insensé ? Comment se fait-il qu’il soit fait fi de toute considération d’analyse fondamentale ?

Voilà le raisonnement appliqué pour le cas de la hausse:

  1. Quelques acheteurs sont présents. Le titre ou l’indice est recherché. Hausse.
  2. Les gains sont substantiels, les vendeurs deviennent majoritaires. On consolide.
  3. Ayant repéré la phase 1, les acheteurs viennent massivement. A noter que yC-yD>>yB-yA !!! dans cette théorie, conformément au nombre d’intervenant alors protagonistes.
  4. On assiste au même processus que pour la phase 2.
  5. Les retardataires acheteurs se présentent. On atteint yF > yA. Fin de la hausse.

Et la suite ? La théorie évoquée la détaille ! cf…

Et ceci peut-être utilisé avec beaucoup de logiciels de gestion de portefeuille, l’immense majorité d’entre eux étant liés aux établissements dépositaires, ou aux intermédiaires. Dans ce cas, c’est la simple capacité graphique de la machine qui permettra de définir son propre scénario d’extrapolation. Ainsi qu’une expérience avérée du domaine, bien sûr.

On l’a donc vu, loin des illusions, il existe dans une certaine mesure une prédictibilité pour ces activités, là aussi.

+++

L’apport en puissance de calcul avec l’informatique quantique. A bientôt …

On le comprend aisément, les capacités en terme de prédictibilité sont intimement liées à, d’une part, la qualité des algorithmes mis en oeuvre , et , d’autre part à la puissance de calcul. En 2022, et ceci depuis quelques années, un nouveau progrès est en devenir avec l’informatique quantique.

De quoi s’agit-il ? Qu’est-ce que l’informatique quantique ? Nouveau buzz marketing ou progrès de la science ?

L’informatique « traditionnelle » a ses fondements basés sur l’état binaire (0 ou 1) de ses composants unitaires. En découle des logiques booléennes – le bit ne peut prendre que 2 valeurs, 0 ou 1 – basées sur l’encodage de suites de 0 et de 1. Ainsi par exemple, le nombre binaire 1011010 vaut 90 en système décimal. Les opérations de d’addition, de multiplication, les chemins logiques sont liées à cette réalité électronique duale: 0 ou 1.

+++

Pour qui connait un peu la physique quantique, on sait que cette dualité n’est que toute relative.

L’informatique quantique naissante est une nouvelle technologie qui utilise les états non booléens des particules élémentaires. Et la puissance de calcul afférente potentielle est considérable…

Illustrons par un exemple quantifié qui en surprendra plus d’un: en 2022, un ordinateur quantique est parvenu à résoudre en XXX secondes une équation qui aurait pris XXXX années à un ordinateur traditionnel. A bientôt …

Catégories
Uncategorized

Développement spécifique versus progiciel, ou comment réinventer la roue …

  Désireuse de s’équiper d’une solution informatique dotée d’un certain nombre de fonctions, une entreprise émet une expression de besoins, le plus souvent un « cahier des charges ».

Une question fondamentale -à mon sens- doit apparaître très vite : un progiciel, c’est à dire une produit de « série » proposant une gamme de fonctionnalités pourra-t-il répondre à ce cahier des charges, ou bien alors faut-il envisager un développement spécifique, c’est à dire un produit « sur mesure », totalement spécifié par le cahier des charges ?

Cette réflexion est réellement fondamentale pour l’entreprise à de nombreux égards, notamment :

A. Le coût total de la solution

B. La maintenabilité et l’évolutivité de la solution

C. L’adéquation fonctionnelle attendue


A. Le coût total de la solution

J’ai pour habitude d’utiliser une métaphore automobile pour comparer le coût potentiel d’une solution spécifique versus l’acquisition d’un progiciel.

En investissant pour un développement spécifique, le client demande un « prototype », une solution unique, qu’aucun autre client n’utilisera. En choisissant un progiciel, c’est comme si celui-ci choisissait un véhicule de « série », fabriqué en grande quantité, en usine.

On comprend mieux alors, au travers de cette analogie industrielle, la différence potentiellement drastique de coût entre les deux solutions.

Le raisonnement est simple. Imaginons la solution 1., spécifique, dont le développement coûterait 1 Million d’€. Cette solution sera vendue une fois et une seule au coût de 1,3 Million d’€ par exemple. 

Imaginons désormais la solution 2., progiciel dont le développement coûterait 2 Millions d’€. Si la solution est vendue 50 fois, il suffit de la vendre 2 x 2 M€ / 50 soit 80 000 € pour générer au total un revenu double du coût de production !

1,3 M€ dans le 1er cas …

80 k€ dans le second cas …

De quoi réellement s’interroger quant à la bonne alternative ! 


B. La maintenabilité et l’évolutivité de la solution

Une entreprise s’équipant d’une solution logicielle un tant soit peu élaborée le fait pour plusieurs années. Se pose donc la question du caractère maintenable et évolutif de la solution choisie. Quels sont les risques en fonction du scénario choisi ?

  • progiciel
    • dépendance vis à vis de l’éditeur (« souveraineté numérique »)
    • limitations quant à la « customisation » possible du progiciel
    • la « mitigation » de ces risques consiste à 
      • s’assurer de la qualité économique et technique proposée par le fournisseur (l’éditeur)
      • s’organiser pour optimiser l’autonomie (configurabilité, connaissance intime du produit, transfert de compétences de l’éditeur au client)
      • veiller au nombre de versions livrées par an, au nombre de clients de l’éditeur etc.
  • choix d’une solution spécifique
    En 1997, je suis personnellement intervenu au sein d’une PME (électronique) qui avait fait réaliser une partie de son informatique de gestion (prise de commandes et facturation) par un indépendant qui lui avait « codé » une application spécifique. Résultat: trois ans plus tard, l’indépendant était occupé à tout autre chose, et le système se met à « bugger ». L’entreprise, qui avait tout de même pris soin de devenir propriétaire du code, se retrouve totalement bloquée, sans possibilité de générer la moindre commande ni la moindre facture. Je me souviens de plusieurs journées passées à trouver les fameux « bugs », en entrant dans le code qui avait été réalisé (non documenté bien sûr et absolument pas du tout maitrisé par l’entreprise). Indéniablement, choisir une solution spécifique et la faire développer, c’est prendre un risque important quant à la capacité d’assumer la maintenance corrective et évolutive de la solution.

La vocation même de l’éditeur est effectivement de proposer des produits qu’il fera évoluer, débuggera, et qui sont utilisés par plusieurs clients.


C. L’adéquation fonctionnelle attendue.

On marche souvent sur la tête dans ce domaine si l’on n’a pas bien compris l’importance de la dualité progiciel / développement spécifique.

On lit même bien souvent dans des cahiers des charges : « un développement spécifique ou une solution à base de progiciel pourront être proposés ».

De fait, le processus d’expression des besoins est – me semble-t-il – à reconsidérer:

Processus classique

  1. Quel sont les besoins fonctionnels ?
  2. Quelle ergonomie est souhaitée ?
  3. Rédaction et émission d’un cahier des charges
  4. Réception des réponses
  5. Décision 
  6. Lancement du projet

Le processus qui me semble participer d’une démarche optimisée: 

  1. Quelles sont les fonctions offertes par les différentes solutions du marché ?
  2. Quels sont mes besoins essentiels parmi ces fonctions ?
  3. Rédaction et émission d’un cahier des charges orienté éditeurs
  4. Choix de l’éditeur
  5. Lancement du projet

Ceci me parait d’autant plus pertinent que 80% des besoins ne sont pas spécifiques à la société (ou organisation) cliente, mais communes à toutes les entreprises (ou organisations) du même secteur. Par ailleurs, il est bon de rappeler la fameuse règle des 80/20 : 20% des efforts risquent de représenter 80% du prix.

A quoi bon se restreindre à une description très spécifique et unique du besoin ? A quoi faire (il en existe encore) des maquettes d’écran ? A quoi bon croire que c’est le client qui reste décideur quant à l’ergonomie du logiciel ?

En conclusion : 

  • soit le besoin est couvert à plus de 50% par un produit du marché, et il me semble alors totalement inefficace d’envisager une solution en « développement spécifique ».
  • soit le besoin est tellement spécifique qu’aucun progiciel du marché ne le couvre. J’attends des exemples de ce cas là …  Je ne parle bien sûr ici pas du jargon, des sigles, des acronymes utilisés par le client mais réellement des fonctionnalités attendues.

Jean-Michel Lucas

©2018-2024

vieille-roue-de-chariot-antique-2465566 (1)

Catégories
Uncategorized

ROI et NPV (retour sur investissement et net present value)

   Le retour sur investissement (ROI: return on investment, retour sur investissement) est un calcul visant à démontrer, qu’après un certain temps, l’investissement que vous réalisez va vous rapporter beaucoup plus que ce que vous dépensez.

Pour le quantifier, trois principales entités entrent en jeu:

  • le facteur temps
  • le montant de l’investissement
  • le gain réalisé

Le gain réalisé

Le gain réalisé correspond aux économies que vous allez réaliser grâce à votre investissement: il peut s’agir d’un gain en productivité, d’une réduction des dépenses et achats, d’une augmentation de vos ventes rentables.

Par exemple , un logiciel peut vous permettre de passer deux fois moins de temps sur une activité. Le coût de votre activité est donc réduit de moitié dès que vous êtes formés et l’utilisez. Ou encore, un progiciel permet de réduire de 10% les temps de coordination d’une équipe de 100 personnes (*). Alors, chaque personne dégage 1 dixième de son temps pour ses activités principales. L’économie réalisée correspond au travail à temps plein de 10 personnes, qui peuvent dès lors se concentrer pleinement sur leur cœur de métier.

L’investissement

Le montant de l’investissement peut se décomposer en deux principaux paramètres : le CAPEX (coût ponctuel) et l’OPEX (coût récurrent). Par exemple si on achète un logiciel 100 000 € en CAPEX, on aura un OPEX de 20 000 € par an au titre de la maintenance évolutive, corrective, et du support qui est proposé. Ou encore si on loue un logiciel 5 000 € par mois (SaaS), maintenance et support inclus, il n’y a pas de CAPEX. Enfin si on achète un meuble neuf, il n’y a quasiment pas d’OPEX (hormis le temps que l’on passera à l’entretenir).

Le facteur temps

L’échelle de temps est ponctuée par le lancement du projet et le point mort, comme l’illustre le schéma ci-dessous:

Jean-Michel Lucas 18 mai 2018 ROI et NPV

A inflation nulle, le retour sur investissement (ROI) commence donc à opérer après le point mort, c’est à dire le moment d’équilibre entre l’argent investi et les économies réalisées.

Quant au NPV (net present value), il s’agit simplement de se dire: en cas de statut quo, donc si vous retardez votre investissement, vous décalez le point mort et décalez donc d’autant l’encaissement des gains nets cumulés réalisables.

Jean-Michel Lucas

©2018-2024

(*) lire mon article : Tableurs, solution durable ?

« Patience et longueur de temps font plus que force ni que rage. »
Jean de La Fontaine
Catégories
Uncategorized

Le stop and go dans la transformation numérique

  Disons que le déploiement d’un progiciel correspond à sa mise en production pour tout ou partie de ses utilisateurs. Alors, l’engagement proposé repose sur une date anticipée.

Comment s’assurer du respect des délais ? Comment planifier le projet ?

Une première approche consiste à définir la date de mise en production en partant de cette date future; bref, à concevoir un planning inversé (rétro-planning). 

Ainsi, en simplifiant, la séquence 1. spécifications, 2. développement et paramétrage, 3. tests 4. recette interne, 5. recette externe, 6. ajustements, et 7. mise en production, aura à être planifiée en commençant par l’étape 7. puis 6. 5… jusqu’à la date présente.

Cet exercice comporte des règles de l’art, à l’époque de la méthode dite du cycle en V, on avait coutume de répartir en trois tiers les phases de a. spécifications, b. développement et paramétrage, c. recette, tests et ajustements.

Avec les méthodes agiles, on procède me semble-t-il, finalement, de la même façon, à ceci près que l’on découpe le projet en tranches, chaque tranche correspondant à une sous-partie des fonctionnalités attendues, ou à la résolution d’une anomalie, ou bien encore à une évolution.

Mais cette vision de l’organisation du temps du projet ne peut en aucun cas se faire sans une co-construction avec la maitrise d’ouvrage, autrement dit le prospect (en avant-vente) ou le client (après la vente). Respecter les délais nécessite un accord préalable entre maitrise d’œuvre et maitrise d’ouvrage sur les modalités d’interactions entre les deux parties. C’est la continuité du respect de cet accord lors du projet qui constituera un facteur limitant de risque de ce que l’on appelle couramment les dérives, c.à.d tout simplement les retards.

Vouloir objectiver cet accord, c’est d’abord quantifier les ressources humaines nécessaires, tant du côté de la maitrise d’ouvrage que de la maitrise d’œuvre. Aussi le coût global du projet inclue l’addition du montant de la commande avec le coût investi par le maître d’ouvrage. 

On doit donc veiller à une transparence quant à l’application d’abaques donnant les ratios :

Temps passé par la maitrise d’ouvrage (tmoa) / Temps passé par la maitrise d’œuvre (tmoe)

tmoa/tmoe < 0.1 : les délais ne seront pas tenus et en conséquence la date de mise en production sera décalée. 

Par ailleurs, tout retard implique une augmentation du coût projet (TCO: total cost of ownership).

Le retard du démarrage du projet lui-même induit une augmentation du TCO, on peut essayer de la prévoir avec le calcul du NPV (net present value). 

Le retour sur investissement (ROI: return on investment) global est lié à une augmentation de la performance de l’entreprise après la mise en production, tout simplement lorsque les utilisateurs ont été formés et utilisent la nouvelle infrastructure progicielle en mode nominal.

Et l’exercice budgétaire, traditionnellement annuel, est-il possible sans associer le montant prévisionnel du projet avec le temps de réalisation nécessaire ? 

Reprenons la liste des principaux critères :

La date de mise en production prévue (liée aux exercices fiscaux, aux publications des comptes et résultats, aux autres projets en cours).

La charge de travail de la maitrise d’ouvrage dédiée.

La charge de travail de la maitrise d’œuvre dédiée.

La date de démarrage du projet.

Et surtout, le respect tout au long du projet de l’accord entre le fournisseur et le client.

Les paroles s’envolent et les écrits restent. C’est du ressort de l’avant-vente que d’inclure dans sa proposition les modalités de cet accord. C’est de la responsabilité du client de s’engager, à la signature, au respect de ces modalités. Sans quoi le projet n’est rentable ni pour la moa, ni pour la moe.

 

Jean-Michel Lucas

©2018-2024

pexels-photo-908298.jpeg