Aller au contenu principal

Soutien aux chercheurs

Publier dans une revue savante

Le processus de publication

Les revues savantes s'engagent à publier des articles dont la recherche a été menée avec rigueur et dont la découverte est valide, pertinente et originale. Pour s'en assurer, elles font évaluer les manuscrits par des experts. Le processus par lequel doit passer une personne qui soumet un article peut être long et fastidieux, mais l'objectif est d'améliorer la qualité scientifique du contenu.

Afin de maximiser ses chances d'être accepté pour publication, il est fortement conseillé de faire réviser et commenter le manuscrit par d'autres spécialistes, comme des collègues qui auront une critique constructive, avant même de l'envoyer à une revue.

Voici les étapes par lesquelles un manuscrit passe lorsqu'il est soumis à une revue:

À la réception de la révision des évaluateurs, que le manuscrit soit accepté ou non, il est important de ne pas tomber dans l'émotion et de relire minutieusement les commentaires en gardant la tête froide. À noter que les avis des évaluateurs peuvent parfois être divergents, compte tenu de leurs expertises différentes, mais l'auteur se doit de prendre leurs commentaires au sérieux (Cossette, 2016).

Pour se dire une revue savante, au contraire d'une revue professionnelle, par exemple, une revue doit avoir un comité de lecture (peer reviewed). Celui-ci est composé d'évaluateurs spécialistes du domaine ou du sujet d'un article soumis à la revue; ils révisent et commentent les manuscrits de manière bénévole. Les revues peinent parfois à trouver des experts tant le sujet de recherche est précis et les quelques personnes identifiées sont souvent très sollicitées. Pour ces raisons, le processus de publication peut prendre plusieurs mois, de la soumission de l'article à sa publication. 

Les revues prédatrices, même si elles mentionnent un comité de lecture sur leur site web, ne font pas réviser les articles reçus.


Il existe différents modes de révision par les pairs :

Semi-aveugle : réviseurs anonymes ou auteurs anonymes
Double aveugle : réviseurs et auteurs anonymes
Ouvert : identification des réviseurs et des auteurs
 
Afin de garantir une équité entre les auteurs, beaucoup de revues savantes utilisent la méthode double-aveugle. Or, le sujet d'un article appartient parfois à un champ d'expertise tellement pointu que les individus peuvent reconnaitre ceux qui les évaluent ou ceux qu'ils évaluent. Des modèles relativement nouveaux existent pour faire preuve de plus de transparence, notamment les modèles ouverts, qui présentent publiquement les commentaires des évaluateurs et les rétroactions des auteurs. Cela permet de limiter les conflits d'intérêt ou les évaluations partiales. Malgré cela, chaque modèle présente ses limites (les commentaires ouverts sont généralement moins critiques, le double-aveugle ne reconnait pas publiquement le rôle des évaluateurs, etc.). Le système d'évaluation par les pairs en lui-même révèle également plusieurs défauts, notamment la surcharge de travail des membres de la communauté de recherche, ainsi que la valorisation de la recherche qui demeure dans les sentiers battus au détriment d'une recherche peu orthodoxe présentant une grande originalité (Balli, 2020; Cossette et Bernier, 2022; Riding, 2022). 

Dans l'écosystème de la communication savante, un article scientifique traverse plusieurs étapes et subit des modifications. Différents termes sont donc employés pour désigner les différentes versions de l'article au cours du processus de publication.

Pré-publication (pre-print): il s'agit du manuscrit original envoyé à la revue, sans évaluation des pairs ni mise en forme de l'éditeur, généralement en format Word (.docx). Le dépôt institutionnel de l'UQTR, Cognitio, ne permet pas de déposer cette version d'un article.

Version acceptée (post-print / accepted manuscript / final draft / post-publication / manuscrit final de l'auteur): c'est la version du manuscrit évaluée et acceptée pour publication, elle comprend toutes les modifications faites par la personne autrice au cours du processus d'évaluation par les pairs. Cependant, elle n'est pas mise en forme par l’éditeur, donc elle est généralement encore en format Word (.docx). Selon les politiques des éditeurs, cette version peut être déposée dans Cognitio.

Version finale (version of record / version publiée / version officielle / PDF final): version telle que publiée par l'éditeur. Elle a donc le même contenu que la version acceptée, en plus d'être mise en page par l'éditeur. Certains éditeurs permettent que cette version soit déposée dans Cognitio

Des organismes comme COPE, qui promeut les pratiques de communications savantes responsables, et presque la totalité des revues (Ganjavi et al., 2024) considèrent que l’intelligence artificielle (IA) ne peut pas être coauteur et ainsi que les auteurs et autrices sont imputables du contenu de leur article. Les différentes limites et enjeux de l’utilisation de l’IA, comme le manque de transparence et de reproductibilité, les biais potentiels et l’intégration de contenu confidentiel, ont amené les revues à intégrer une clause à leur politique éditoriale. Par exemple, l’ICMJE, qui émet des recommandations aux revues médicales pour un processus de publication éthique, indique :

« Lors de la soumission, la revue devrait demander aux auteurs d'indiquer s'ils ont utilisé des technologies assistées par l'intelligence artificielle (telles que les grands modèles de langage (Large Language Models [LLM]), les robots conversationnels (chatbots) ou les créateurs d'images dans la production des travaux soumis. » (ICMJE, 2025).

Il revient donc à la personne soumettant son manuscrit de lire attentivement la politique éditoriale de la revue pour respecter les exigences demandées, par exemple celle de faire une déclaration de son utilisation de l’IA, s’il y a lieu.

Quant aux évaluations des articles, les outils d’IA par les réviseurs et réviseuses peuvent être interdits d’utilisation dans certaines revues. En effet, non seulement l’intégration d’un manuscrit non publié dans un outil IA est un manquement à confidentialité, mais la rigueur, le respect de l’intégrité intellectuelle et l’objectivité sont au cœur de ce processus. Plusieurs études démontrent que l’IA ne peut remplacer l’humain dans l’évaluation du contenu d’une publication scientifique (Rayan, 2024, Thelwall, 2025).

Des outils d’IA peuvent toutefois servir les éditeurs dans certains contextes, par exemple pour détecter le plagiat ou identifier des personnes évaluatrices potentielles. Cela dit, les bonnes pratiques veulent que les directions des revues valident, avec leur expertise humaine et leur esprit critique, les extrants générés par l’IA (Hajji, 2024).

Références

Balli, F. (2020, 23 septembre). Entrevue avec Vincent Larivière, représentant du Canada pour les sciences ouvertes à l’UNESCO, Hypothèses. https://sciencesouvertes.hypotheses.org/38

COPE. (2017). Ethical guidelines for peer reviewers. https://publicationethics.org/guidance/guideline/ethical-guidelines-peer-reviewers

Cossette, P. (2016). Publier dans une revue savante : Les 10 règles du chercheur convaincant (2e éd.). Presses de l’Université du Québec. https://doi.org/10.2307/j.ctt1h64m61

Cossette, S. & Bernier, M. (2022). L’évaluation par les pairs des travaux de recherche : un processus essentiel, mais imparfait et mal-aimé. Science of Nursing and Health Practices / Science infirmière et pratiques en santé5(1), 1–9. https://doi-org.biblioproxy.uqtr.ca/10.7202/1090526ar

Fovet-Rabot, C. (2021). Comprendre les modèles d’évaluation par les pairs d’un article scientifique en 7 points. CIRAD. https://doi.org/10.18167/coopist/0081

Ganjavi, C., Eppler, M. B., Pekcan, A., Biedermann, B., Abreu, A., Collins, G. S., Gill, I. S., & Cacciamani, G. E. (2024). Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: Bibliometric analysis. BMJ, e077192. https://doi.org/10.1136/bmj-2023-077192

Hajji, R. (2024). Artificial Intelligence–Assisted Technology Medical Manuscript Writing: New Challenges for Reviewers and Editors. Telehealth and Medicine Today, 9(1). https://doi.org/10.30953/thmt.v9.459

ICMJE. (2025). Recommandations pour la conduite, la présentation, la rédaction et la publication des travaux de recherche soumis à des revues médicales. https://www.icmje.org/recommendations/translations/french2025.pdf

Polytechnique Montréal. (2024). Rédiger et publier un article scientifique : les trois versions d'un article. https://guides.biblio.polymtl.ca/rediger_publier_article/trois-versions

Rayan, J. (2024). Can AI be used to assess research quality? Nature Index, https://www.nature.com/articles/d41586-024-02989-z.

Riding, J. B. (2022). An evaluation of the process of peer review. Palynology47(1). https://doi.org/10.1080/01916122.2022.2151052

Sugimoto, C. R. et Larivière, V. (2018). Mesurer la science. Presses de l’Université de Montréal. https://pum.umontreal.ca/catalogue/mesurer-la-science

Thelwall, M. (2025). Evaluating research quality with Large Language Models: An analysis of ChatGPT’s effectiveness with different settings and inputs. Journal of Data and Information Science, 10(1), 7–25. https://doi.org/10.2478/jdis-2025-0011

Van Steenberghe, É., Lisée, C. et Sauvé, L. (2021). Regards sur l’évaluation par les pairs pour une revue savante. UQÀM CentERE. https://centrere.uqam.ca/wp-content/uploads/2021/06/Presentation-Evaluation-par-les-pairs.pdf

CC BY 4.0 Sauf indications contraires, les contenus de ce guide créé par le Service de la bibliothèque de l'UQTR sont sous licence CC BY 4.0