Selon le Grand dictionnaire terminologique, la bibliométrie se définit comme étant « [un ensemble de] procédés mathématiques et statistiques utilisés pour mesurer les modes de publication et l’utilisation du matériel documentaire » (Office québécois de la langue française, 2001).
La définition d’Yves Gingras, sociologue des sciences et spécialiste de l’évaluation de la recherche, est semblable à cette dernière : « Méthode de recherche qui consiste à utiliser les publications scientifiques et leurs citations comme indicateurs de la production scientifique et de ses usages » (2014, p. 9).
Voici quelques utilisations possibles des données bibliométriques :
(Paul-Hus et Barbosa De Souza, 2015)
Le facteur d’impact d’une revue correspond au nombre moyen de citations reçues publiées dans une revue X au cours des deux ou des cinq années suivant sa publication (Larivière, 2018b).
Le facteur d’impact d’une revue publiée en 2016 se calcule de la façon suivante :
Vincent Larivière, professeur en Sciences de l'information à l'Université de Montréal et membre du Centre interuniversitaire de recherche sur la science et la technologie
Le SNIP mesure la moyenne des citations des publications d’une revue en se basant sur les citations de Scopus des trois dernières années. Cet indicateur est normalisé par domaine de recherche, ce qui fait en sorte qu’il est plus facilement comparable d’une revue à l’autre. (Bibliothèque – Polytechnique Montréal, 2018 ; Service de la bibliothèque de l’École de technologie supérieure, s. d.a).
Le SJR est établi en fonction des données de Scopus. Il vise à calculer l’impact des revues, mais accorde une plus grande valeur aux citations provenant de revues prestigieuses.
L’indice h5 correspond à l’indice h d’une revue calculé à partir des cinq dernières années.
L’indice h vise à mesurer à la fois l’impact (nombre de citations reçues) et la productivité (nombre d’articles publiés) d’un chercheur (Larivière, 2018b).
Le calcul de l’indice h se base sur une liste des publications d’un chercheur classées par ordre décroissant de citations. La valeur de h est donc égale au nombre d’articles qui ont reçu X citations ou plus (Bibliothèque du CUSM, 2019).
Dans cet exemple, l’indice h du chercheur est de 6, car 6 de ses articles ont été cités au moins 6 fois. Les articles restants ont été cités 6 fois ou moins.
Articles | Citations |
---|---|
1 | 80 |
2 | 72 |
3 | 43 |
4 | 35 |
5 | 19 |
6 | 7 |
7 | 3 |
8 | 1 |
Voici des ressources pouvant être utilisées pour calculer l’indice h d’un chercheur :
La moyenne des citations relatives vise à comparer l’impact d’articles provenant de disciplines différentes.
Afin de trouver l’impact d’un article, on divise le nombre de citations reçues pour un article par le nombre moyen de citations reçues pour les articles publiés la même année, et ce, dans la même discipline (Service de la bibliothèque de l’École de technologie supérieure, s. d.).
(Larivière, 2018a)
(Levasseur et Barbosa de Souza, 2016, p. 3)
Compte tenu des limites des indices bibliométriques, il convient d’être prudent dans leur utilisation. Mettre plusieurs indicateurs en relation et les utiliser en complémentarité avec l’évaluation par les pairs représentent de bonnes pratiques (Service de la bibliothèque de l’École de technologie supérieure, s. d.b).
(Service de la bibliothèque de l’École de technologie supérieure, s. d.b)
Les mesures d’impact alternatives font usage des données du Web social pour quantifier l’influence des chercheurs ou des publications (Bibliothèque de l’Université Laval, s. d.). Un des avantages de ces mesures est que les données des médias sociaux sont accessibles beaucoup plus rapidement que les citations (Thelwall, Haustein, Larivière et Sugimoto, 2013). Les mesures d’impact alternatives devraient toutefois être utilisées en complémentarité aux indicateurs bibliométriques traditionnels (Service de la bibliothèque de l’École de technologie supérieure, s. d.c).
(Service de la bibliothèque de l’École de technologie supérieure, s. d.c)
Voici des ressources pouvant vous aider à mesurer les impacts alternatifs :
Bartneck, C. et Kekkelmans, S. (2011). Detecting h-index manipulation through self-citation analysis. Scientometrics, 87(1), 85-98. https://doi.org10.1007/s11192-010-0306-5
Bibliothèque de l’Université Laval. (s. d.). Bibliométrie et impact de la recherche – Altmetrics. https://www.bibl.ulaval.ca/services/bibliometrie/altmetrics
Bibliothèque du CUSM. (2019). est votre impact ? En savoir plus sur l’indice h. http://www.bibliothequescusm.ca/formations-et-conseils/guides-et-tutoriels/quel-est-votre-impact-en-savoir-plus-sur-lindice-h/
Bibliothèque – Polytechnique Montréal. (2018). Mise en valeur de la recherche : impact des revues. https://guides.biblio.polymtl.ca/mise_en_valeur_de_la_recherche/impact_revues
De Groote, S. L. et Raszewski, R. (2012). Coverage of Google Scholar, Scopus, and Web of Science: A case study of the h-index in nursing. Nursing Outlook, 60(6), 391-400. https://doi.org/10.1016/j.outlook.2012.04.007
Delgado López-Cózar, E., Robinson-García, N. et Torres-Salinas, D. (2014). The Google scholar experiment: How to index false papers and manipulate bibliometric indicators. Journal of the Association for Information Science and Technology, 65(3), 446-454. https://doi.org/10.1002/asi.23056
Gingras, Y. (2014). Les dérives de l’évaluation de la recherche : du bon usage de la bibliométrie. Paris, France : Raison d’agir.
Harzing, A.-W. et van der Wal, R. (2009). A Google Scholar h-index for journals: An alternative metric to measure journal impact in economics and business. Journal of the American Society for Information Science and Technology, 60(1), 41-46. https://doi.org.10.1002/asi.20953
Indiana University. (s. d.). Scholarometer. https://scholarometer.indiana.edu/#about
Larivière, V. (Automne 2018a). Séance 5. [Présentation PowerPoint]. Dans SCI6304 : Bibliométrie et communication savante. Montréal : Université de Montréal, Sciences de l'information. http://cours.ebsi.umontreal.ca/sci6304/
Larivière, V. (Automne 2018b). Séance 6. [Présentation PowerPoint]. Dans SCI6304 : Bibliométrie et communication savante. Montréal : Université de Montréal, Sciences de l’information. http://cours.ebsi.umontreal.ca/sci6304/
Levasseur, D. et Barbosa de Souza, H. (2016). Du bon usage des indicateurs bibliométriques à l’ÉTS [PDF]. Repéré à https://www.etsmtl.ca/getattachment/Bibliotheque/Services/Pour-la-recherche/Bibliometrie/ETS---Lignes_directrices_bibliometrie_2_mai_2016.pdf
Office québécois de la langue française. (2001). Bibliométrie. Repéré à http://www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8368932
Paul-Hus, A. et Barbosa De Souza, H. (2015, 14 avril). Analyser et évaluer la recherche : la bibliométrie et ses effets pervers [Billet de blogue]. Repéré à https://substance.etsmtl.ca/analyser-et-evaluer-la-recherche-la-bibliometrie-et-ses-effets-pervers
Service de la bibliothèque de l’École de technologie supérieure. (s. d.c). Altmetrics. Repéré à https://sites.google.com/a/etsmtl.net/bibliometrie/altmetrics
Service de la bibliothèque de l’École de technologie supérieure. (s. d.a). Indicateurs bibliométriques. Repéré à https://sites.google.com/a/etsmtl.net/bibliometrie/indicateurs-bibliometriques
Service de la bibliothèque de l’École de technologie supérieure. (s. d.b). Les limites. Repéré à https://sites.google.com/a/etsmtl.net/bibliometrie/limites
Thelwall, M., Haustein, S., Larivière, V. et Sugimoto, C. R. (2013). Do altmetrics work? Twitter and ten other social web services. PloS one, 8(5), e64841. https://doi.org/10.1371/journal.pone.0064841
Archambault, É., Vignola-Gagné, É., Côté, G., Larivière, V. et Gingrasb, Y. (2006). Benchmarking scientific output in the social sciences and humanities: The limits of existing databases. Scientometrics, 68(3), 329-342. https://doi.org/10.1007/s11192-006-0115-z
Callaway, E. (2016). Beat it, impact factor! Publishing elite turns against controversial metric. Nature, 535(7611), 201-211. https//doi.org/10.1038/nature.2016.20224
Conseil des académies canadiennes. (2012). Éclairer les choix en matière de recherche : indicateurs et décisions [PDF]. https://sciencepourlepublic.ca/wp-content/uploads/2018/10/scienceperformance_fullreport_fr_web.pdf
Costas, R. et Bordons, M. (2007). The h-index: Advantages, limitations and its relation with other bibliometric indicators at the micro level. Journal of Informetrics, 1(3), 193-203. https://doi.org/10.1016/j.joi.2007.02.001
Coutrot, L. (2008). Sur l’usage récent des indicateurs bibliométriques comme outil d’évaluation de la recherche scientifique. Bulletin de méthodologie sociologique, (100), 45-50. https://journals.openedition.org/bms/3353
Matzkin, A. (2009). L’évaluation en sciences exactes : quand la quantité tue la qualité. Cités, 37(1), 43-49. https//doi.org/10.3917/cite.037.0043
Gingras, Y. (2008). La Fièvre de l’évaluation de la recherche : du mauvais usage de faux indicateurs. Bulletin de méthodologie sociologique, 100(1), 41-44. https//doi.org/10.1177/075910630810000107
Rose, B. (2014). L’évaluation des universités, une « farce »? Le Devoir. https://www.ledevoir.com/societe/education/398455/l-evaluation-des-universites-une-farce
Aide à l'usager
Communiquez avec nous pour de l'aide en ligne aide.bibliotheque@uqat.ca
Accès rapide
La bibliothèque
2024 © Bibliothèque Cégep A-T et UQAT