Silence total dans la salle d’examen. Et soudain, une voix s’élève : « J’espère avoir répondu à tes questions. Je te souhaite un bon examen. » L’étudiante avait oublié de désactiver le mode vocal de ChatGPT. Prise en flagrant délit de triche high-tech. L’anecdote pourrait prêter à sourire, mais elle dit pourtant beaucoup du malaise actuel des enseignants face à l’irruption massive de l’IA générative dans les salles de classe.
Frédéric Barret, intervenant en marketing dans plusieurs écoles de commerce, ne mâche pas ses mots : « Ce n’est pas une évolution, c’est un tsunami. Près de 30 % des copies sont désormais co-écrites par l’IA. »
Le retour du bon vieux papier crayon
Face à ce phénomène, les enseignants bricolent. Première parade : le grand retour du papier-crayon en présentiel. Il y a encore trois ans, raconte Frédéric Barret, beaucoup d’examens avaient lieu en ligne avec des QCM. À l’ESSEC, un étudiant confirme le virage : finis les QCM en ligne, « trop facile de tricher ». Désormais, tout est sur papier ou sous surveillance étroite.
Dans cette lignée, les devoirs à la maison ont été littéralement abandonnés. « Jusqu’en décembre, je donnais encore des exercices entre chaque cours qui n’étaient pas notés, poursuit Frédéric Barret. Résultat : un tiers ne faisait rien, un tiers se trompait, et un tiers utilisait exclusivement l’IA. »
Le phénomène est particulièrement marqué chez les étudiants les plus jeunes. « Leur rapport est très utilitariste : l’objectif, c’est la note, pas l’apprentissage. Si ce n’est pas noté, ça ne sert à rien. Si ça l’est, ils pensent que l’IA va leur garantir une bonne moyenne – ce qui est faux, en plus. »
À l’inverse, les étudiants plus avancés, en master ou déjà passés par l’entreprise, font preuve d’un usage plus mesuré. « Ils ont appris à travailler sans IA, puis à travailler avec. Leur utilisation est plus subtile, plus critique. »
Piéger les énoncés
Deuxième ligne de défense : les pièges invisibles glissés dans les énoncés. Frédéric Barret en a fait une méthode quasi systématique. Il insère dans ses sujets des informations invisibles à l’œil nu, mais que l’IA va détecter. Exemple : une étude de cas sur les montres connectées où il a glissé des références aux « courses de chevaux ». Si le mot-clé réapparaît dans les rendus, c’est plié et c’est zéro.
En marketing, la bataille est nécessaire : la discipline exige un esprit analytique, critique, créatif. L’enjeu n’est pas de réciter, mais de construire une réflexion. Si les étudiants copient-collent leurs questions dans ChatGPT, sans un prompt travaillé, le résulat sera bancal. D’où les études de cas contextualisées, individualisées, où la machine ne peut pas tout faire, ou hallucine dans le pire des cas.
À LIRE AUSSI
Former, transformer ou… subir
Cécile Dejoux, professeure au CNAM et spécialiste de l’IA dans l’enseignement, observe le phénomène avec un regard plus systémique. Elle identifie trois profils d’enseignants. D’abord, ceux qui sanctuarisent le cours. Zéro numérique en classe, retour au dialogue, à la « relation agora ». Objectif : recréer du collectif, vérifier ce que les étudiants ont vraiment compris.
Ensuite, les pionniers du « test and learn », dont elle fait partie. Elle pousse ses étudiants à créer des infographies avec NotebookLM, des podcasts, à comparer quatre LLM différents – Perplexity, ChatGPT, Gemini, Claude, Grok – pour en débusquer les biais. L’objectif ? Développer l’esprit critique. Elle va jusqu’à faire travailler des doctorants sur des avatars de Napoléon que des CM2 utilisent pour réviser. Résultat : les enfants retiennent dix fois plus.
Et puis enfin, les « passifs », qui utilisent des manuels numériques pré-formatés où l’IA est déjà intégrée. Selon elle, ils subissent l’outil sans le comprendre vraiment.
Pour Cécile Dejoux, le vrai problème n’est pas l’IA, mais le manque de formation. Les profs ont peur parce qu’ils ne sont pas assez accompagnés. À Singapour, où elle a mené une « learning-expédition », tout le monde est formé. Ici ? Rien. Son conseil : inverser la logique pédagogique. Ne plus demander « quand ont eu lieu les guerres napoléoniennes », mais « imaginez un scénario où Napoléon gagne ». L’étudiant n’a plus le choix : il doit penser.
Et les profs qui piègent leurs énoncés ? « On s’en fout », tranche-t-elle. Ceux qui disent « ne l’utilisez pas » devraient être « en classe de réadaptation ». Le prof de demain, c’est celui qui aime encore son métier, qui n’a pas peur d’être remplacé. Celui qui travaille le how plutôt que le what.
Génération GPT : quand réfléchir devient difficile
Du côté des étudiants, l’usage est généralisé. À l’ESSEC, on a le droit d’utiliser l’IA, à condition de la citer comme une source. L’école encourage même son usage pour traiter des données, par exemple. « Tout le monde l’utilise, reconnaît l’étudiant en deuxième année, mais ce n’est pas encore de la délégation totale. » Pas encore.
Pourtant, il constate un effet pervers. En 2022, au lycée, quand ChatGPT n’existait pas, on pouvait encore rendre une rédaction faite en une nuit. Aujourd’hui ? « Ce serait beaucoup plus dur. » Une perte d’autonomie intellectuelle inquiétante. Les lycéens qui utilisent GPT dès la seconde auront encore plus de mal à travailler sans, ce qui se voit déjà : des étudiants incapables d’écrire à la main, désemparés face à une copie blanche, ralentis par l’effort même de formuler une pensée sans assistance.
Entre bricolage et ruses technologiques, les enseignants tentent de sauver ce qui peut l’être. Mais tous s’accordent : l’interdiction est un leurre. Reste à inventer le cours de demain, entre acculturation numérique et sanctuarisation de l’esprit critique.
NOTRE RÉSUMÉ EN
5 points clés
PAR L'EXPRESS CONNECT IA
(VÉRIFIÉ PAR NOTRE RÉDACTION)
Voici un résumé en cinq points clés de l’article sur le sujet : ChatGPT en classe et l’adaptation des enseignants face à l’IA générative.
Une triche devenue massive et banalisée
L’irruption de ChatGPT à l’école et dans le supérieur bouleverse les pratiques. Certains enseignants estiment que près d’un tiers des copies sont aujourd’hui co-rédigées avec l’IA. Les plus jeunes étudiants adoptent souvent un usage purement utilitaire, centré sur la note plutôt que sur l’apprentissage réel.
Le retour aux méthodes “anti-IA”
Pour limiter la triche, de nombreux établissements reviennent au papier-crayon en présentiel et abandonnent les devoirs à la maison non surveillés. Les examens en ligne et les QCM sont jugés trop faciles à contourner avec l’intelligence artificielle.
Des stratégies de détection parfois rusées
Certains professeurs insèrent des pièges invisibles dans les sujets pour repérer les usages frauduleux de l’IA (mots-clés cachés, consignes détournées). L’objectif : forcer les étudiants à produire une réflexion personnelle, surtout dans les disciplines qui exigent analyse, créativité et esprit critique.
Trois profils d’enseignants face à l’IA
Selon des spécialistes de la pédagogie, le corps enseignant se divise entre : les “sanctuarisateurs”, qui bannissent le numérique en classe ; les pionniers, qui intègrent l’IA pour développer l’esprit critique (comparaison d’outils, analyse des biais, nouveaux formats pédagogiques) ; les passifs, qui utilisent des outils IA sans réelle formation. Le manque d’accompagnement des professeurs apparaît comme un frein majeur.
Une génération dépendante, un défi pour l’école
Si certaines écoles autorisent et encadrent l’usage de l’IA, les enseignants observent une baisse de l’autonomie intellectuelle : difficulté à écrire sans assistance, à structurer une pensée ou à travailler sans outil numérique. L’enjeu éducatif n’est plus d’interdire ChatGPT, mais d’apprendre à penser avec — et sans — l’IA pour préserver les compétences fondamentales.













