Une erreur de programmation qui fit paniquer la planète

Fin du monde oblige, on ne pouvait pas ne pas parler de la précédente pseudo-apocalypse, qui aurait dû nous atomiser. En l'espèce, outre les théories millénaristes qui ont joyeusement germé dans les journaux, le 21eme siècle a commencé avec quelques sueurs froides. 

Ce qui fut appelé le bug de l’an 2000 aurait pu s’avérer être anecdotique. Initialement il s’agissait d’une erreur de programmation des machines sur le format de la date. Au lieu de programmer la date en insérant les quatre chiffres de l’année, seuls les deux derniers chiffres de l’année étaient pris en compte. La conséquence fut que certaines machines remontèrent littéralement le temps en affichant l’année « 1900 » au lieu de l’année « 2000 ».

Contrairement à ce qui fut qualifié, il ne s’agissait pas d’un bug mais bien d’une erreur de programmation.

Mais la couverture médiatique de cette erreur de programmation fut telle que l’erreur de qualification ne fut pas le point essentiel. Cette erreur fut l’occasion de faire découvrir l’informatique et surtout, l’impact de l’informatique dans la vie quotidienne des personnes qui n’étaient pas familiers de cet univers.

Par ailleurs, le coût de cette erreur de programmation fut tellement important qu’il imposa de nouvelles pratiques dans les directions des systèmes d’information.

Pourtant, ce ne fut pas le premier bug de l’histoire informatique et celui de l’an 2000 avait été perçu dès 1975 grâce aux programmes de calculs des échéances de crédits bancaires. 

Le terme de bug était employé pour désigner les défaillances des premiers ordinateurs à lampes, avant l'invention des transistors. Lorsque les insectes se collaient aux lampes, ils provoquaient des dysfonctionnements.

Chez AT&T, une parenthèse mal placée dans le corps d'un programme a provoqué un crash, resté longtemps inexpliqué, de l'ensemble du réseau téléphonique new-yorkais pendant une journée. En l'an 2000, de nombreux ordinateurs ont failli se retrouver au début du vingtième siècle.

Les logiciels conçus dans les années 1970 et 1980, par souci d'économie d'espace mémoire, n'ont codé les dates qu'avec les deux derniers chiffres des années. Au passage de l'an 00, tous les programmes concernés ont rencontrés des dysfonctionnements.

Le problème paraît très simple mais une date apparaît dans les applications de gestion en moyenne une fois toutes les cinquante lignes de codes et certains programmes peuvent contenir plusieurs centaines de milliers de lignes. Par ailleurs, beaucoup de dates sont calculées par dérivation sans que le nom des variables ne le mentionne explicitement. Enfin, il aurait également fallu que les codes sources soient disponibles et ouverts afin que les personnes qui auraient voulu améliorer ce défaut de conception puissent matériellement le faire.

Cette fameuse erreur de programmation pourrait ressurgir pour les mêmes raisons en 2038 selon certains experts. 

Alors, pourquoi avoir retenu le "bug" de l'an 2000 ? Tout simplement parce qu'il a constitué un tournant dans les mentalités, qu'il alimenté toutes les théories millénaristes, comme pour légitimer des faits qui n'en étaient pas. Mais il a surtout marqué un tournant. Rendez-vous en 2038 pour une nouvelle Apocalypse. 

Commentaires

on me chuchotte que c'est en 2080.
https://www.youtube.com/watch?v=kcPtMyOPgBw

Ajouter un commentaire