Avec la vitesse à laquelle les technologies progressent, l’intelligence artificielle (IA) débarque dans tous les domaines. Récemment, France 3 Hauts-de-France a lancé une expérience qui met en lumière ce que l’IA peut faire en milieu scolaire. Pour le bac de philo 2025, la rédaction a mis au défi une IA sur un sujet proposé aux terminales. Cette initiative fait réfléchir sur le rôle que pourrait jouer l’IA dans l’éducation et la réflexion philosophique.
On teste l’IA en philo
Le 16 juin, pendant l’épreuve de philo du bac, environ 530 000 élèves ont travaillé sur plusieurs sujets, dont 45 391 dans l’académie de Lille. Parmi eux, on trouvait des thèmes comme « Notre avenir dépend-il de la technique ? », « Sommes-nous libres en toutes circonstances ? » et « Avons-nous besoin d’art ? ». Mais c’est sur le sujet « La vérité est-elle toujours convaincante ? » que la rédaction a choisi de mettre l’IA à l’épreuve.
L’idée était simple : voir si l’IA pouvait pondre une dissertation en trois parties – introduction, développement et conclusion – avec des arguments soutenus par des exemples précis et documentés. L’IA devait se comporter comme un élève cherchant à décrocher la meilleure note possible.
Résultats et petites critiques
La copie de l’IA a été générée en quelques secondes, affichant une structure nette et une orthographe sans faute. Cependant, un prof de philo du lycée Louis Thuillier à Amiens qui a noté le travail a relevé quelques soucis. Il a notamment indiqué que la structure ne suivait pas vraiment les attentes habituelles en philo, où le plan ne doit pas être trop visible. De plus, le sujet s’est éloigné, passant de « La vérité est-elle toujours convaincante ? » à « La vérité suffit-elle pour convaincre ? », sans vraiment définir certains termes.
Malgré ces points, le prof a estimé que la copie aurait pu obtenir un 8/20 dans un examen classique, même s’il la trouvait « innotable ». Quand l’IA a été sollicitée pour s’autoévaluer, elle s’est accrochée à un surprenant 19,5/20, montrant qu’elle se surestime largement, un exemple des comportements imprévisibles des IA.
Comparaison avec d’anciens tests
Ce test n’est pas une première. En fait, il y a deux ans, Ouest-France avait déjà fait évaluer ChatGPT sur un sujet de philo par Laurence Devillairs, docteure en philo à l’Université de la Sorbonne. Le thème à l’époque était « Notre avenir dépend-il de la technique ? ». Et là encore, ChatGPT s’était vu attribuer un 8/20, un petit peu en dessous du 9/20 qu’il avait obtenu lors du premier test.
Laurence Devillairs avait reconnu que la copie respectait certains codes habituels grâce à un plan bien structuré, mais elle regrettait l’absence d’une problématique bien définie et une réflexion qui restait superficielle. Même si des auteurs comme Martin Heidegger, Hannah Arendt et Platon figuraient dans le texte, leur emploi n’était, selon elle, pas vraiment pertinent.
L’IA à l’école demain ?
Ces tests montrent bien ce que l’IA peut faire aujourd’hui, mais ils illustrent aussi ses performances limitées des agents IA dans le domaine de la philosophie. Certes, elle peut générer des textes bien structurés très vite, mais il lui manque encore une compréhension approfondie pour mener une vraie analyse critique. De plus, le fait que le professeur ait jugé la copie en sachant qu’elle venait d’une IA rappelle combien nos perceptions peuvent fausser notre jugement.







Mdr si tu t’y connais un peu tu sait que ya un problème 🤣🤣