Besoin d'aide ? Contactez votre bibliothécaire disciplinaire.
Les revues savantes s'engagent à publier des articles dont la recherche a été menée avec rigueur et dont la découverte est valide, pertinente et originale. Pour s'en assurer, elles font évaluer les manuscrits par des experts. Le processus par lequel doit passer une personne qui soumet un article peut être long et fastidieux, mais l'objectif est d'améliorer la qualité scientifique du contenu.
Afin de maximiser ses chances d'être accepté pour publication, il est fortement conseillé de faire réviser et commenter le manuscrit par d'autres spécialistes, comme des collègues qui auront une critique constructive, avant même de l'envoyer à une revue.
Voici les étapes par lesquelles un manuscrit passe lorsqu'il est soumis à une revue:
À la réception de la révision des évaluateurs, que le manuscrit soit accepté ou non, il est important de ne pas tomber dans l'émotion et de relire minutieusement les commentaires en gardant la tête froide. À noter que les avis des évaluateurs peuvent parfois être divergents, compte tenu de leurs expertises différentes, mais l'auteur se doit de prendre leurs commentaires au sérieux (Cossette, 2016).
Pour se dire une revue savante, au contraire d'une revue professionnelle, par exemple, une revue doit avoir un comité de lecture (peer reviewed). Celui-ci est composé d'évaluateurs spécialistes du domaine ou du sujet d'un article soumis à la revue; ils révisent et commentent les manuscrits de manière bénévole. Les revues peinent parfois à trouver des experts tant le sujet de recherche est précis et les quelques personnes identifiées sont souvent très sollicitées. Pour ces raisons, le processus de publication peut prendre plusieurs mois, de la soumission de l'article à sa publication.
Les revues prédatrices, même si elles mentionnent un comité de lecture sur leur site web, ne font pas réviser les articles reçus.
Il existe différents modes de révision par les pairs :
Dans l'écosystème de la communication savante, un article scientifique traverse plusieurs étapes et subit des modifications. Différents termes sont donc employés pour désigner les différentes versions de l'article au cours du processus de publication.
![]() |
Pré-publication (pre-print): il s'agit du manuscrit original envoyé à la revue, sans évaluation des pairs ni mise en forme de l'éditeur, généralement en format Word (.docx). Le dépôt institutionnel de l'UQTR, Cognitio, ne permet pas de déposer cette version d'un article. |
![]() |
Version acceptée (post-print / accepted manuscript / final draft / post-publication / manuscrit final de l'auteur): c'est la version du manuscrit évaluée et acceptée pour publication, elle comprend toutes les modifications faites par la personne autrice au cours du processus d'évaluation par les pairs. Cependant, elle n'est pas mise en forme par l’éditeur, donc elle est généralement encore en format Word (.docx). Selon les politiques des éditeurs, cette version peut être déposée dans Cognitio. |
![]() |
Version finale (version of record / version publiée / version officielle / PDF final): version telle que publiée par l'éditeur. Elle a donc le même contenu que la version acceptée, en plus d'être mise en page par l'éditeur. Certains éditeurs permettent que cette version soit déposée dans Cognitio. |
Des organismes comme COPE, qui promeut les pratiques de communications savantes responsables, et presque la totalité des revues (Ganjavi et al., 2024) considèrent que l’intelligence artificielle (IA) ne peut pas être coauteur et ainsi que les auteurs et autrices sont imputables du contenu de leur article. Les différentes limites et enjeux de l’utilisation de l’IA, comme le manque de transparence et de reproductibilité, les biais potentiels et l’intégration de contenu confidentiel, ont amené les revues à intégrer une clause à leur politique éditoriale. Par exemple, l’ICMJE, qui émet des recommandations aux revues médicales pour un processus de publication éthique, indique :
« Lors de la soumission, la revue devrait demander aux auteurs d'indiquer s'ils ont utilisé des technologies assistées par l'intelligence artificielle (telles que les grands modèles de langage (Large Language Models [LLM]), les robots conversationnels (chatbots) ou les créateurs d'images dans la production des travaux soumis. » (ICMJE, 2025).
Il revient donc à la personne soumettant son manuscrit de lire attentivement la politique éditoriale de la revue pour respecter les exigences demandées, par exemple celle de faire une déclaration de son utilisation de l’IA, s’il y a lieu.
Quant aux évaluations des articles, les outils d’IA par les réviseurs et réviseuses peuvent être interdits d’utilisation dans certaines revues. En effet, non seulement l’intégration d’un manuscrit non publié dans un outil IA est un manquement à confidentialité, mais la rigueur, le respect de l’intégrité intellectuelle et l’objectivité sont au cœur de ce processus. Plusieurs études démontrent que l’IA ne peut remplacer l’humain dans l’évaluation du contenu d’une publication scientifique (Rayan, 2024, Thelwall, 2025).
Des outils d’IA peuvent toutefois servir les éditeurs dans certains contextes, par exemple pour détecter le plagiat ou identifier des personnes évaluatrices potentielles. Cela dit, les bonnes pratiques veulent que les directions des revues valident, avec leur expertise humaine et leur esprit critique, les extrants générés par l’IA (Hajji, 2024).
Balli, F. (2020, 23 septembre). Entrevue avec Vincent Larivière, représentant du Canada pour les sciences ouvertes à l’UNESCO, Hypothèses. https://sciencesouvertes.hypotheses.org/38
COPE. (2017). Ethical guidelines for peer reviewers. https://publicationethics.org/guidance/guideline/ethical-guidelines-peer-reviewers
Cossette, P. (2016). Publier dans une revue savante : Les 10 règles du chercheur convaincant (2e éd.). Presses de l’Université du Québec. https://doi.org/10.2307/j.ctt1h64m61
Cossette, S. & Bernier, M. (2022). L’évaluation par les pairs des travaux de recherche : un processus essentiel, mais imparfait et mal-aimé. Science of Nursing and Health Practices / Science infirmière et pratiques en santé, 5(1), 1–9. https://doi-org.biblioproxy.uqtr.ca/10.7202/1090526ar
Fovet-Rabot, C. (2021). Comprendre les modèles d’évaluation par les pairs d’un article scientifique en 7 points. CIRAD. https://doi.org/10.18167/coopist/0081
Ganjavi, C., Eppler, M. B., Pekcan, A., Biedermann, B., Abreu, A., Collins, G. S., Gill, I. S., & Cacciamani, G. E. (2024). Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: Bibliometric analysis. BMJ, e077192. https://doi.org/10.1136/bmj-2023-077192
Hajji, R. (2024). Artificial Intelligence–Assisted Technology Medical Manuscript Writing: New Challenges for Reviewers and Editors. Telehealth and Medicine Today, 9(1). https://doi.org/10.30953/thmt.v9.459
ICMJE. (2025). Recommandations pour la conduite, la présentation, la rédaction et la publication des travaux de recherche soumis à des revues médicales. https://www.icmje.org/recommendations/translations/french2025.pdf
Polytechnique Montréal. (2024). Rédiger et publier un article scientifique : les trois versions d'un article. https://guides.biblio.polymtl.ca/rediger_publier_article/trois-versions
Rayan, J. (2024). Can AI be used to assess research quality? Nature Index, https://www.nature.com/articles/d41586-024-02989-z.
Riding, J. B. (2022). An evaluation of the process of peer review. Palynology, 47(1). https://doi.org/10.1080/01916122.2022.2151052
Sugimoto, C. R. et Larivière, V. (2018). Mesurer la science. Presses de l’Université de Montréal. https://pum.umontreal.ca/catalogue/mesurer-la-science
Thelwall, M. (2025). Evaluating research quality with Large Language Models: An analysis of ChatGPT’s effectiveness with different settings and inputs. Journal of Data and Information Science, 10(1), 7–25. https://doi.org/10.2478/jdis-2025-0011
Van Steenberghe, É., Lisée, C. et Sauvé, L. (2021). Regards sur l’évaluation par les pairs pour une revue savante. UQÀM CentERE. https://centrere.uqam.ca/wp-content/uploads/2021/06/Presentation-Evaluation-par-les-pairs.pdf