Pas de photo, pas de triche : les IA baissent les yeux
Chaque année en Chine, le mois de juin a une saveur particulière. Pendant quatre jours, du 7 au 10 juin, plus de treize millions d'étudiants passent le gaokao, l’examen d’entrée à l’université, équivalent d’un baccalauréat hypertrophié. Un enjeu national, un rite de passage, un ascenseur social – mais surtout, un moment de vérité. Cette année, une nouvelle variable s’est imposée dans l’équation : l’intelligence artificielle. Et les autorités, avec la complicité des géants technologiques, ont décidé de l’exclure de la salle d’examen.
Concrètement, Alibaba (Qwen), Tencent (Yuanbao) et Moonshot AI (Kimi) ont temporairement suspendu la fonction de reconnaissance d’images de leurs assistants IA pendant toute la durée du gaokao. Une décision assumée, volontaire, qui vise à éviter que les étudiants ne photographient les sujets et ne sollicitent les IA pour tricher.
Cette suspension n’est pas anodine. Elle dit beaucoup sur l’évolution des usages numériques, la perception de l’IA comme outil potentiellement déviant, mais aussi sur la manière dont la Chine tente d’encadrer le numérique tout en le développant.
Les assistants comme Kimi ou Yuanbao sont devenus de véritables coachs digitaux pour les étudiants chinois : correction de dissertations, explications de textes complexes, calculs instantanés, résumés intelligents. On les consulte pour réviser, comprendre, structurer ses idées.
Mais à l’heure du gaokao, ces alliés deviennent suspects. La fonction de reconnaissance visuelle, qui permet par exemple de photographier un sujet et de recevoir une réponse, devient un risque. Il suffirait de sortir un smartphone, de prendre un cliché discret, et l’IA fait le reste.
En désactivant volontairement cette fonction, les entreprises chinoises ont anticipé un phénomène croissant : la tentation de contourner l’effort par le numérique. Ce n’est pas qu’un coup de com. C’est un geste éthique. Et un exemple à suivre.
Le plus remarquable, c’est la coordination entre ces entreprises concurrentes. Un consensus tacite s’est établi, preuve que le respect des règles peut être plus fort que la course à l’innovation. Cela envoie un message fort : la technologie doit servir la société, pas la devancer.
Certes, l’interdiction ne touche que la fonction image, pas les capacités textuelles. Mais c’est précisément là qu’est l’intelligence de la démarche : on ne bloque pas l’accès à l’outil, on neutralise son détournement.
Dans une société aussi digitalisée que celle de la Chine, cette coupure partielle est perçue non pas comme une privation, mais comme une suspension pédagogique, une respiration qui rappelle aux jeunes que certaines épreuves doivent se vivre pleinement, sans assistance artificielle.
Ce qui se joue ici dépasse les frontières chinoises. Car la question n’est plus “Peut-on interdire l’IA à l’école ?”, mais bien “Comment l’intégrer sans pervertir les objectifs éducatifs ?”. Le débat est mondial. En France, le ministre de l’Éducation a déjà évoqué l’idée de bloquer ChatGPT pendant les examens. Au Maroc, des enseignants s’inquiètent de la place croissante des générateurs de texte dans les devoirs à domicile.
Mais ce que montre la Chine, c’est qu’une régulation douce, contextuelle, transparente et temporaire peut être plus efficace qu’une interdiction brutale. Plutôt que de censurer l’IA, on la met en veille. Comme pour dire aux élèves : “Ce moment t’appartient, pas à ton assistant numérique.”
Et nous, au Maroc, que ferions-nous ?
On pourrait sourire, ou même se dire que ce débat est trop loin de nos réalités. Mais soyons honnêtes : l’IA est déjà dans nos écoles. Des élèves marocains utilisent ChatGPT pour faire leurs dissertations. Certains enseignants l'utilisent même pour générer des corrigés-types. Les plateformes de révision automatisées explosent. Et bientôt, il faudra décider : quels usages accepter ? Quels garde-fous poser ?
La décision chinoise, dans sa simplicité, propose un modèle testable. Ne pas diaboliser l’outil, mais adapter ses fonctionnalités aux contextes pédagogiques sensibles. Créer une pause numérique éthique pendant les moments cruciaux, comme les examens.
C’est peut-être cela, la vraie révolution éducative face à l’IA : ne pas céder à la panique, mais construire une pédagogie consciente, réfléchie, lucide. Car les jeunes, eux, ont déjà intégré l’IA dans leur quotidien. À nous de leur apprendre à s’en servir sans s’y soumettre.
Une citation à méditer
Concrètement, Alibaba (Qwen), Tencent (Yuanbao) et Moonshot AI (Kimi) ont temporairement suspendu la fonction de reconnaissance d’images de leurs assistants IA pendant toute la durée du gaokao. Une décision assumée, volontaire, qui vise à éviter que les étudiants ne photographient les sujets et ne sollicitent les IA pour tricher.
Cette suspension n’est pas anodine. Elle dit beaucoup sur l’évolution des usages numériques, la perception de l’IA comme outil potentiellement déviant, mais aussi sur la manière dont la Chine tente d’encadrer le numérique tout en le développant.
Les assistants comme Kimi ou Yuanbao sont devenus de véritables coachs digitaux pour les étudiants chinois : correction de dissertations, explications de textes complexes, calculs instantanés, résumés intelligents. On les consulte pour réviser, comprendre, structurer ses idées.
Mais à l’heure du gaokao, ces alliés deviennent suspects. La fonction de reconnaissance visuelle, qui permet par exemple de photographier un sujet et de recevoir une réponse, devient un risque. Il suffirait de sortir un smartphone, de prendre un cliché discret, et l’IA fait le reste.
En désactivant volontairement cette fonction, les entreprises chinoises ont anticipé un phénomène croissant : la tentation de contourner l’effort par le numérique. Ce n’est pas qu’un coup de com. C’est un geste éthique. Et un exemple à suivre.
Le plus remarquable, c’est la coordination entre ces entreprises concurrentes. Un consensus tacite s’est établi, preuve que le respect des règles peut être plus fort que la course à l’innovation. Cela envoie un message fort : la technologie doit servir la société, pas la devancer.
Certes, l’interdiction ne touche que la fonction image, pas les capacités textuelles. Mais c’est précisément là qu’est l’intelligence de la démarche : on ne bloque pas l’accès à l’outil, on neutralise son détournement.
Dans une société aussi digitalisée que celle de la Chine, cette coupure partielle est perçue non pas comme une privation, mais comme une suspension pédagogique, une respiration qui rappelle aux jeunes que certaines épreuves doivent se vivre pleinement, sans assistance artificielle.
Ce qui se joue ici dépasse les frontières chinoises. Car la question n’est plus “Peut-on interdire l’IA à l’école ?”, mais bien “Comment l’intégrer sans pervertir les objectifs éducatifs ?”. Le débat est mondial. En France, le ministre de l’Éducation a déjà évoqué l’idée de bloquer ChatGPT pendant les examens. Au Maroc, des enseignants s’inquiètent de la place croissante des générateurs de texte dans les devoirs à domicile.
Mais ce que montre la Chine, c’est qu’une régulation douce, contextuelle, transparente et temporaire peut être plus efficace qu’une interdiction brutale. Plutôt que de censurer l’IA, on la met en veille. Comme pour dire aux élèves : “Ce moment t’appartient, pas à ton assistant numérique.”
Et nous, au Maroc, que ferions-nous ?
On pourrait sourire, ou même se dire que ce débat est trop loin de nos réalités. Mais soyons honnêtes : l’IA est déjà dans nos écoles. Des élèves marocains utilisent ChatGPT pour faire leurs dissertations. Certains enseignants l'utilisent même pour générer des corrigés-types. Les plateformes de révision automatisées explosent. Et bientôt, il faudra décider : quels usages accepter ? Quels garde-fous poser ?
La décision chinoise, dans sa simplicité, propose un modèle testable. Ne pas diaboliser l’outil, mais adapter ses fonctionnalités aux contextes pédagogiques sensibles. Créer une pause numérique éthique pendant les moments cruciaux, comme les examens.
C’est peut-être cela, la vraie révolution éducative face à l’IA : ne pas céder à la panique, mais construire une pédagogie consciente, réfléchie, lucide. Car les jeunes, eux, ont déjà intégré l’IA dans leur quotidien. À nous de leur apprendre à s’en servir sans s’y soumettre.
Une citation à méditer
“L’intelligence artificielle n’est ni bonne ni mauvaise. Elle reflète juste nos intentions. C’est à nous d’éduquer avant de programmer.” — Yuval Noah Harari
Conclusion : Le silence des IA pour réveiller la conscience humaine
En suspendant partiellement leurs chatbots pendant le gaokao, les géants chinois de la tech n’ont pas seulement respecté un protocole. Ils ont posé un acte symbolique fort : rappeler que certaines compétences doivent être humaines pour être justes.
L’éducation n’est pas une course à la rapidité de réponse, mais une école de la lenteur, de l’effort, de l’introspection. L’IA peut accompagner, mais elle ne remplacera jamais l’expérience d’un cerveau en lutte avec un sujet difficile, d’un cœur qui bat dans une salle d’examen.
Et si, finalement, le plus beau progrès technologique de 2025, c’était ce geste de recul, cette pause salutaire, cette déconnexion volontaire qui remet l’humain au centre ?
L’éducation n’est pas une course à la rapidité de réponse, mais une école de la lenteur, de l’effort, de l’introspection. L’IA peut accompagner, mais elle ne remplacera jamais l’expérience d’un cerveau en lutte avec un sujet difficile, d’un cœur qui bat dans une salle d’examen.
Et si, finalement, le plus beau progrès technologique de 2025, c’était ce geste de recul, cette pause salutaire, cette déconnexion volontaire qui remet l’humain au centre ?