Nous le savons bien, la mode n’est pas seulement un phénomène qui régulièrement vient chatouiller nos charmantes compagnes et les obliger à des dépenses que d’aucuns qualifieraient d’inopportunes. Mais, désormais, un tel prurit atteint aussi la part masculine de la population surtout quand elle se mêle de « nouvelles » technologies.
Désormais les modes déferlent donc non plus de Paris, Vienne ou Milan, mais de la « Silicon Valley ». Il est bien connu en effet que les prophètes doivent venir de l’étranger ! Et puisque la programmation est un art dont nous sommes redevables aux anglo-saxons (merci, Lady Lovelace !), il est clair que les bonnes idées doivent venir d’ailleurs, de préférence là où on parle « anglais ».
On ne saurait dénombrer toutes les « bonnes pratiques » qui nous sont ainsi continuellement proposées. L’ennui, c’est qu’elles sont parfois contradictoires. Ainsi pour me limiter à un seul exemple, pendant des années, j’ai entendu dire : « la perfection n’est pas de ce monde ! » et pendant des décennies (mais plus tard !) : « il faut atteindre le « zéro défaut » ».
Maintenant, il est de bon ton de dire à nouveau, à chaque fois qu’une catastrophe « imprévisible » survient : « la sécurité totale n’existe pas ! », ce qui en terme informatique se traduit par « quel que soit le nombre de test que l’on fait subir à un programme, il restera toujours des bogues ». Un tel énoncé est manifestement faux, sauf à supposer qu’il existe un nombre infini de bogues dans tout programme, ce qui pourrait alors devenir l’axiome fondateur de la programmation !
Pourtant, ayant pratiqué aussi bien la programmation dite « scientifique » que celle réputée « de gestion », j’ai pu constater, qu’à condition d’y consacrer l’attention nécessaire, on pouvait écrire des programmes sans défaut, mais parfois sujets à des défaillances extérieures (pannes de courant, blocage de la machine, etc.).
Je pense que cela n’étonnera personne que dans le domaine scientifique on soit capable de dérouler des algorithmes parfaits, pourtant il faut rappeler qu’il y a une quarantaine d’années une démarche, appelée « programmation structurée » était proposée (et enseignée, notamment en France !) pour écrire des programmes de gestion indemnes d’erreurs. Mais comme depuis cette époque, les moyens de stockage et les langages de mise en œuvre ont beaucoup évolué, on s’est bien gardé de prolonger l’implantation de démarches considérées comme désuètes et chronophages. Et même le fameux « bogue de l’an 2000 » qui aurait pu fournir l’occasion de revisiter des programmes souvent écrits dès les années 70, n’a pas été mis à profit pour améliorer à fond l’informatique « patrimoniale » des « grands comptes » publics ou privés.
La « Malédiction du Bogue Invisible » continuera donc encore longtemps de frapper, pour le plus grand bonheur des incompétents et des spécialistes qui leur viennent en aide !
29/03/2012 at 12:30
Mettriez-vous la fuite de gaz actuelle en Mer du Nord sur le compte de bogues (qui pourraient éventuellement avoir une origine informatique)?
PPD
20/05/2012 at 19:30
Je n’ai pas d’informations vérifiées sur ce problème de fuite de gaz. Je pense qu’il s’agit plutôt de « malfaçons », ce qui n’aurait alors rien à voir avec l’informatique (et d’éventuels bogues). Pour prendre un exemple plus connu : Tchernobyl, l’accident est arrivé (semble-t-il) par ce que les personnes en charge de la sécurité en avaient assez d’entendre les alarmes se déclencher à tout bout de champ. Cela les empêchait de (au choix) dormir, jouer aux cartes, se saouler à la vodka.
29/03/2012 at 12:53
Très bon billet. Mais il ne faut pas oublier l’impact économique du zéro-défaut ou du zéro-risque. Cependant, il est difficile de déterminer le seuil au regard de l’ampleur que peuvent avoir les conséquences de bogues.
29/03/2012 at 13:01
Bien d’accord, mais il fut étendre la réflexion aux tests, à plusieurs niveaux:
– méthodologie de test
– scénarios de tests
– outils de tests
BJ
29/03/2012 at 17:35
Vous ne pouvez raisonner qu’à iso-configuration, iso-version! Bien des programmes réputés parfaits bogguent dès que l’une des couches matérielles ou logicielles a évoluer!!!!!!
Or vous devriez le savoir en tant qu’expert reconnu, les systèmes d’information actuels évoluent très vite, la durée des versions stabilisées se raccourcit constamment.
20/05/2012 at 19:33
Vous avez tout à fait raison, en ce qui concerne l’évolution rapide des versions. Mais si on part d’une solution imparfaite, on ne pourra pas s’adapter à de nouvelles configurations ou versions. Autrement, la portabilité devrait pouvoir se garantir !