A survey of how biology researchers assess credibility when serving on grant and hiring committees

Authors : Iain Hrynaszkiewicz, Beruria Novich, James Harney, Veronique Kiermer

Researchers who serve on grant review and hiring committees have to make decisions about the intrinsic value of research in short periods of time, and research impact metrics such Journal Impact Factor (JIF) exert undue influence on these decisions. Initiatives such as the Coalition for Advancing Research Assessment (CoARA) and the Declaration on Research Assessment (DORA) emphasize responsible use of quantitative metrics and avoidance of journal-based impact metrics for research assessment. Further, our previous qualitative research suggested that assessing credibility, or trustworthiness, of research is important to researchers not only when they seek to inform their own research but also in the context of research assessment committees.

To confirm our findings from previous interviews in quantitative terms, we surveyed 485 biology researchers who have served on committees for grant review or hiring and promotion decisions, to understand how they assess the credibility of research outputs in these contexts. We found that concepts like credibility, trustworthiness, quality and impact lack consistent definitions and interpretations by researchers, which had already been observed in our interviews.

We also found that assessment of credibility is very important to most (81%) of researchers serving in these committees but fewer than half of respondents are satisfied with their ability to assess credibility. A substantial proportion of respondents (57% of respondents) report using journal reputation and JIF to assess credibility – proxies that research assessment reformers consider inappropriate to assess credibility because they don’t rely on intrinsic characteristics of the research.

This gap between importance of an assessment and satisfaction in the ability to conduct it was reflected in multiple aspects of credibility we tested and it was greatest for researchers seeking to assess the integrity of research (such as identifying signs of fabrication, falsification, or plagiarism), and the suitability and completeness of research methods. Non-traditional research outputs associated with Open Science practices – research data, code, protocol and preprints sharing – are particularly hard for researchers to assess, despite the potential of Open Science practices to signal trustworthiness.

Our results suggest opportunities to develop better guidance and better signals to support the evaluation of research credibility and trustworthiness – and ultimately support research assessment reform, away from the use of inappropriate proxies for impact and towards assessing the intrinsic characteristics and values researchers see as important.

DOI : https://doi.org/10.31222/osf.io/ht836

Les reconfigurations des vecteurs de la crédibilité scientifique à l’interface entre les mondes sociaux

Auteur.ices/Authors : Fabrizio Li Vigni, Séverine Louvel, Benjamin Raimbault

La crédibilité des scientifiques fait l’objet de débats, qui portent sur les risques de décrédibilisation qui découleraient d’une perte d’autonomie des chercheur·e·s vis-à-vis d’intérêts économiques, de logiques militantes ou d’agendas politiques.

Ces situations de mise à l’épreuve de la crédibilité scientifique vis-à-vis de la société et de la communauté de pair·e·s soulèvent une question plus générale : comment les chercheur·e·s engagé·e·s dans des collectifs positionnés dans plusieurs mondes sociaux construisent-ils·elles leur crédibilité auprès de leurs collègues ?

Leurs activités renforcent-elles, ou affaiblissent-elles, les vecteurs classiques de la crédibilité scientifique ? De manière concomitante, observe-t-on l’émergence de nouveaux vecteurs de crédibilité ?

Les articles de ce dossier thématique interrogent les reconfigurations contemporaines de la crédibilité à partir de quatre axes de transformation des sciences, à savoir : l’ouverture et la bancarisation des données ; les relations sciences–industries ; l’interdisciplinarité ; et les engagements publics des chercheur·e·s.

Dans cet article introductif, nous revenons sur l’histoire de la notion de crédibilité scientifique dans les Science & Technology Studies – telle qu’elle a été proposée par Bruno Latour et Steve Woolgar, puis Steven Shapin et Thomas Gieryn – et sur la manière dont elle a été investie depuis ; puis nous présentons les cinq articles du dossier et en tirons les apports transversaux.

Nous soulignons que, bien davantage que l’avènement de nouveaux vecteurs de la crédibilité scientifique, ces articles donnent à voir des transformations à la marge, situées et contradictoires.

DOI : https://doi.org/10.4000/rac.30365