REFERENCER VOTRE ECOLE

Tech et éthique, où faut-il poser les limites ?

Tech et éthique, où faut-il poser les limites ?

[Tribune] À travers le travail d’Antonio Damasio, Débora O’Hana, entrepreneure, conférencière, spécialiste de la psychologie des affaires, sparring partner et formatrice questionne l’impact de l’IA dans l’éducation, entre gain d’efficacité et risque de perte de créativité, réflexion et autonomie intellectuelle.


En 1994, le neurologue Antonio Damasio bousculait la pensée cartésienne avec L’erreur de Descartes, affirmant que nos émotions et ressentis sont au cœur de ce qui fait de nous des êtres humains. Trente ans plus tard, à l’heure de l’intelligence artificielle générative, une question brûlante se pose : si penser n’est plus une exclusivité humaine, l’enseignement supérieur est-il en train de former des machines à répondre ou des esprits à réfléchir ?

« Nous vivons dans une société sédentaire où nous avons perdu une grande partie des bénéfices des exercices physiques parce qu’on n’en a plus besoin. C’est la même chose pour notre cerveau. À chaque fois qu’on externalise, on risque de perdre une fonction », dit Raphaël Gaillard, responsable du pôle de psychiatrie de l’hôpital Sainte-Anne et auteur de L’homme augmenté, Futurs de nos cerveaux (Grasset). De fait, une exposition prolongée à des technologies générant du contenu (comme ChatGPT) pourrait altérer le développement du cortex préfrontal chez les jeunes adultes. Ce dernier, zone clé de la pensée critique et de la prise de décision, est moins activé lorsque des réponses toutes faites sont proposées. À une époque où l’IA s’insinue dans les salles de classe, les établissements supérieurs doivent repenser leurs méthodes, sous peine de voir leurs étudiants perdre l’essence même de leur intelligence.

Avec des outils comme ChatGPT, l’apprentissage devient plus rapide, mais est-ce vraiment une bonne nouvelle ? L’IA peut rédiger des dissertations, résumer des concepts complexes ou répondre à des questions en quelques secondes. Mais à force de déléguer des tâches intellectuelles, que reste-t-il à l’étudiant ?

Le chercheur français Grégoire Borst l’affirme : lorsqu’un individu reçoit une réponse prémâchée par intelligence artificielle, son cerveau diminue son effort d’analyse et réduit les connexions neuronales associées à la créativité et au raisonnement. Autrement dit, utiliser ChatGPT, c’est un peu comme prendre un escalator au lieu de monter les marches. C’est plus rapide, moins fatigant, mais à la longue, vous perdez votre musculature intellectuelle.

« Nous sommes en train de créer une génération d’étudiants passifs, incapables de formuler un argument original sans l’aide d’une machine », alerte quant à elle la neurologue Maryanne Wolf, spécialiste des neurosciences et du cerveau. Le risque? Que les futurs diplômés deviennent de simples opérateurs d’outils technologiques, déconnectés des processus de réflexion qui les rendent vraiment humains.

Alors ChatGPT est-il une aide ou une triche ? Soyons honnêtes, cette question embarrasse autant les enseignants que les étudiants ! Faut-il blâmer les étudiants pour avoir utilisé un outil mis à leur disposition ou critiquer l’institution pour ne pas avoir adapté ses méthodes d’évaluation ?

Certains défendent l’idée que l’IA n’est qu’un prolongement des outils numériques, comme les calculatrices ou les moteurs de recherche… Mais cette comparaison est trompeuse : Google donne des informations ; ChatGPT fabrique quant à lui un raisonnement. Et c’est là que le bât blesse. En s’appuyant sur des réponses générées par IA, les étudiants court-circuitent l’effort intellectuel, ce même effort qui, selon les neurosciences, est crucial pour graver des connaissances dans le cerveau à long terme.

« Nous sommes à une croisée des chemins : soit nous enseignons aux étudiants à utiliser l’IA comme un allié, soit nous les transformons en dépendants numériques », avertit le professeur Etienne Klein, physicien et philosophe des sciences.

Le problème, ce n’est pas que l’IA soit plus rapide ou plus intelligente dans certains domaines. C’est qu’elle ne ressent rien ! Là où l’humain combine logique et émotions, l’IA reste un algorithme dénué d’intuition ou de conscience… Or, dans des métiers comme le droit, la médecine ou le management, ce sont ces dimensions émotionnelles qui font la différence.

Damasio lui-même l’a rappelé lors d’une conférence récente : « L’intelligence artificielle n’a pas d’émotions. Elle peut simuler la compréhension, mais elle ne comprend pas. Ce qui nous rend uniques, c’est notre capacité à associer des faits à des ressentis. » Pourtant, à force de sous-traiter à l’IA des tâches complexes, les étudiants risquent de perdre cette compétence clé : le jugement humain.

Alors, quelles solutions ? Des établissements prestigieux comme Cambridge ou Oxford ont commencé à revoir leurs approches pédagogiques. Plutôt que d’interdire l’usage de l’IA comme l’avait fait Sciences Po Paris, ces institutions intègrent des cours où les étudiants apprennent à la critiquer, à la déconstruire, à repérer ses biais. Mais pour chaque exemple de réussite, combien d’universités continuent de donner des cours magistraux obsolètes, avec des évaluations facilement contournables ?

Plus provocateur encore, certains experts appellent à renverser la table : pourquoi ne pas bannir totalement l’IA pendant les premières années d’apprentissage ? Un retour à l’essentiel, où la réflexion et l’effort humain redeviendraient centraux. « Avant de courir avec une prothèse, encore faut-il savoir marcher seul », ironise le professeur Wolf…

Le problème ne réside peut-être pas dans ChatGPT, mais dans un système éducatif qui a laissé les technologies devancer sa réflexion. L’IA ne menace pas l’intelligence humaine, elle en expose ses failles, à savoir : dépendance, manque de créativité, abdication face à l’effort… L’enseignement supérieur doit alors relever un sacré défi : transformer l’IA en outil d’émancipation intellectuelle, et non en béquille, en outil d’aide ou d’appui. Et si l’éducation est, comme le disait Nelson Mandela, « l’arme la plus puissante pour changer le monde », alors il est temps de se demander : dans quelle mesure voulons-nous que cette arme soit chargée par des machines ?


(vérifié par notre rédaction)

Voici un résumé en cinq points clés de l’article sur le sujet : Tech et éthique, où faut-il poser les limites ?

Évolution de la perception de l’IA : L’enseignement supérieur forme-t-il des étudiants à réfléchir ou à devenir dépendants des nouvelles technologies et de l’intelligence artificielle ? La facilité d’accès à des réponses prémâchées peut réduire les efforts d’analyse et la créativité des utilisateurs, engendrant des problèmes éthiques.

Importance de la réflexion critique : Pour éviter de créer une génération d’étudiants passifs, les établissements doivent enseigner comment utiliser l’IA, tout en développant des compétences humaines essentielles telles que le jugement et la pensée critique.

Nécessité d’une formation adéquate : Les écoles doivent former les enseignants à intégrer les nouvelles technologies comme l’IA dans leur pédagogie, afin de préparer les étudiants à interagir efficacement avec ces outils suivant une exigence et une pratique éthique. 

Modèle pédagogique flexible : Les institutions des pays comme le Royaume-Uni, avec les universités de Cambridge et d’Oxford, commencent à réviser leurs méthodes d’enseignement en incluant des cours sur l’IA pour ses utilisateurs. Résultats les étudiants apprennent à critiquer et déconstruire les outils technologiques au lieu de les interdire.

Défis du système éducatif : Les institutions doivent rendre l’éducation plus pertinente face à l’évolution rapide des nouvelles technologies. Il est crucial de transformer l’IA en un outil d’émancipation intellectuelle pour ses utilisateurs, renforçant ainsi le rôle de l’humain et les pratiques dans le processus d’apprentissage et de réflexion.