L'ODJ Média

Wald Maâlam face à 2038 : ce que le bug du temps révèle de l’intelligence artificielle


Par Dr Az-Eddine Bennani.

La date du 19 janvier 2038 est en train de s’imposer, dans certains cercles technologiques, comme une nouvelle échéance critique.

Après le bug de l’an 2000, voici venu le temps du « bug de 2038 », lié à une limite technique dans la manière dont certains systèmes informatiques comptent le temps. Faut-il y voir une menace pour l’intelligence artificielle, et plus particulièrement pour les modèles de langage qui fascinent aujourd’hui le grand public et les décideurs ?

La réponse est à la fois simple et dérangeante : non, ce bug ne menace pas directement les modèles d’intelligence artificielle. Mais il révèle quelque chose de bien plus profond — et de bien plus préoccupant.



Le bug de 2038 est lié à un choix ancien, presque invisible aujourd’hui.

Wald Maâlam face à 2038 : ce que le bug du temps révèle de l’intelligence artificielle
Dans de nombreux systèmes informatiques, le temps est représenté comme un nombre de secondes écoulées depuis le 1er janvier 1970. Ce nombre a longtemps été stocké dans un format limité, dit « 32 bits », qui atteint sa capacité maximale en janvier 2038.

À partir de ce moment, certains systèmes peuvent « basculer » et interpréter la date comme étant en 1901. Il ne s’agit pas d’une erreur spectaculaire, mais d’une limite structurelle inscrite dans la manière même dont le temps a été modélisé.

Or, cette manière de penser — car il s’agit bien d’une manière de penser avant d’être une ligne de code — continue de structurer nos systèmes contemporains. Et c’est là que Wald Maâlam nous invite à regarder autrement.

Car un modèle d’intelligence artificielle, aussi sophistiqué soit-il, ne vit jamais seul. Il repose sur une infrastructure : serveurs, systèmes d’exploitation, bases de données, protocoles de sécurité, horodatages.

Si ces fondations deviennent incohérentes, le modèle, lui, continuera à produire des réponses. Plausibles, fluides, convaincantes. Mais potentiellement fausses.

Le danger n’est donc pas celui que l’on imagine.

Ce n’est pas l’arrêt brutal des systèmes d’intelligence artificielle. C’est leur continuité apparente dans un monde devenu incohérent. Imagine-t-on un système administratif piloté par un agent conversationnel, mais alimenté par des bases de données dont les dates sont erronées ?

Un système de santé assisté par l’IA, mais dont les historiques médicaux sont désynchronisés ? Une plateforme énergétique intelligente, mais incapable de situer correctement les événements dans le temps ?

Dans ces situations, l’intelligence artificielle ne disparaît pas. Elle fonctionne. Mais elle fonctionne sur du sable.

C’est précisément ce que révèle le bug de 2038 : non pas une faiblesse de l’intelligence artificielle en tant que telle, mais une fragilité des systèmes sur lesquels elle repose. Une fragilité héritée de choix anciens, souvent invisibles, rarement questionnés.

Wald Maâlam nous rappelle ici une évidence que l’enthousiasme technologique tend à effacer :

Un algorithme est une manière de penser. Et toute manière de penser porte en elle des hypothèses, des limites, des angles morts. Le choix du 32 bits n’était pas une erreur. C’était une décision rationnelle dans un contexte donné. Mais cette décision devient aujourd’hui une contrainte structurelle.

Dès lors, la question n’est plus technique. Elle devient stratégique. Peut-on parler de souveraineté en matière d’intelligence artificielle si l’on ne maîtrise pas les fondations sur lesquelles reposent nos systèmes ?

Peut-on prétendre construire des politiques publiques, des services numériques ou des infrastructures critiques sur des couches héritées, dont les limites sont connues mais non traitées ?

Le débat sur l’intelligence artificielle est aujourd’hui largement focalisé sur les modèles : leur puissance, leurs performances, leurs usages. Mais il néglige souvent l’essentiel : l’architecture globale dans laquelle ces modèles s’inscrivent. Le bug de 2038 agit comme un révélateur. Il nous oblige à regarder sous la surface.

À interroger non pas seulement ce que font nos systèmes, mais comment ils sont pensés, conçus et articulés.

Dans cette perspective, l’intelligence artificielle ne peut être réduite à un modèle de langage ou à un outil conversationnel.

Elle doit être envisagée comme un système complet, intégrant infrastructure, données, gouvernance, temporalité et responsabilité. C’est là que se joue, en réalité, la question de la souveraineté.

Car une intelligence artificielle qui repose sur des fondations non maîtrisées n’est pas souveraine. Elle est dépendante. Dépendante de choix techniques passés, de standards imposés, d’architectures conçues ailleurs. Le bug de 2038 ne fera sans doute pas la une des journaux comme celui de l’an 2000. Il sera discret, diffus, inégal.

Mais son enseignement est majeur. Il nous rappelle que le futur ne se joue pas seulement dans l’innovation visible, mais dans la solidité invisible des systèmes.

Et Wald Maâlam, en artisan du numérique, nous le dirait simplement : avant de bâtir plus haut, encore faut-il s’assurer que les fondations tiennent dans le temps. L’intelligence artificielle n’échappe pas à cette règle.

Elle en dépend entièrement.

Par Dr Az-Eddine Bennani.


Mardi 31 Mars 2026