Which alternative tools for bibliometrics in an research…

Which alternative tools for bibliometrics in an research institute ? :

“Nowadays, bibliometrics is a frequently used tool in scientific and technical information, it can be useful to quantify scientific production and for collective or individual evaluations. Web of Science (Thomson ISI) and impact factor calculated by JCR are the better known references. We will underline the limits and setbacks of these overused indicators, especially the bias factor h. Other alternative tools are emerging today. Our presentation will focus on comparing all these products, and we will study their interests for librarians and researchers.”

“Aujourd’hui la bibliométrie est un outil fréquemment utilisé pour quantifier la production scientifique et aussi pour les évaluations des chercheurs et des institutions. Le WoK et le JCR pour le facteur d’impact sont des outils de référence. Nous voudrions souligner les limites de ces indicateurs, nous soulignerons les biais du facteur h. D’autres outils alternatifs émergent aujourd’hui. Cette communication analysera d’autres outils qui peuvent être utilisés en bibliométrie, nous en verrons les avantages et les inconvénients pour les documentalistes et les chercheurs.”

URL : http://archivesic.ccsd.cnrs.fr/sic_00668741

The visibility of Wikipedia in scholarly publications …

The visibility of Wikipedia in scholarly publications :

“Publications in the Institute of Scientific Information’s (ISI, currently Thomson Reuters) Web of Science (WoS) and Elsevier’s Scopus databases were utilized to collect data about Wikipedia research and citations to Wikipedia. The growth of publications on Wikipedia research, the most active researchers, their associated institutions, academic fields and their geographic distribution are treated in this paper. The impact and influence of Wikipedia were identified, utilizing cited work found in (WoS) and Scopus. Additionally, leading authors, affiliated institutions, countries, academic fields, and publications that frequently cite Wikipedia are identified.”

URL : http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/3492/3031

Who Shares Who Doesn’t Factors Associated with Openly…

Who Shares? Who Doesn’t? Factors Associated with Openly Archiving Raw Research Data :

“Many initiatives encourage investigators to share their raw datasets in hopes of increasing research efficiency and quality. Despite these investments of time and money, we do not have a firm grasp of who openly shares raw research data, who doesn’t, and which initiatives are correlated with high rates of data sharing. In this analysis I use bibliometric methods to identify patterns in the frequency with which investigators openly archive their raw gene expression microarray datasets after study publication.

Automated methods identified 11,603 articles published between 2000 and 2009 that describe the creation of gene expression microarray data. Associated datasets in best-practice repositories were found for 25% of these articles, increasing from less than 5% in 2001 to 30%–35% in 2007–2009. Accounting for sensitivity of the automated methods, approximately 45% of recent gene expression studies made their data publicly available.

First-order factor analysis on 124 diverse bibliometric attributes of the data creation articles revealed 15 factors describing authorship, funding, institution, publication, and domain environments. In multivariate regression, authors were most likely to share data if they had prior experience sharing or reusing data, if their study was published in an open access journal or a journal with a relatively strong data sharing policy, or if the study was funded by a large number of NIH grants. Authors of studies on cancer and human subjects were least likely to make their datasets available.

These results suggest research data sharing levels are still low and increasing only slowly, and data is least available in areas where it could make the biggest impact. Let’s learn from those with high rates of sharing to embrace the full potential of our research output.”

URL : http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0018657

Les nouvelles formes d’évaluation scientifique : quelles évolutions en sciences, technique et médecine ?

Dès 1960, l’Institute for Scientific Information (I.S.I.) de Philadelphie, sous l’impulsion d’Eugen Garfield, a mis en œuvre le Science Citation Index (S.C.I) pour l’évaluation des auteurs, suivi en 1975 par le Journal Citation Reports (J.C.R.) pour celle des revues.

Au terme d’une analyse critique de ce modèle, nous envisagerons de nouvelles approches : l’algorithme mis au point sur le site Citebase par les équipes de S.Harnad à Southampton (G.-B.) et T.Brody à Cornell (Ithaca, N.-Y.) sur le miroir britannique d’ArXiv.org. (l’un des plus importants sites mondiaux d’archives ouvertes scientifiques) Scholar Google, avatar du moteur généraliste standard lancé sur le Net en novembre 2004 deux alternatives récentes à la définition d’un facteur d’impact proposées par J.E. Hirsch (facteur h lié à la production individuelle d’un chercheur) et l’équipe de J. Bollen (Journal Status) ; donc sur les Auteurs d’une part et les Sources de l’autre le modèle du ” collectif ” Faculty of 1000 dans les domaines biomédicaux.

Son originalité par rapport aux précédents réside dans le primat de l’évaluation “humaine” qualitative sur le principe statistique de la citation. Après un essai de typologie des comités de lecture et des usages en cours dans les différentes disciplines scientifiques, on conclura sur la nécessité d’explorer rapidement la voie d’un nouvel outil d’évaluation libre d’accès, dont les règles seraient clairement définies, tant au niveau de la couverture qu’à celui des critères d’analyse qualitative et statistique.

URL : http://archivesic.ccsd.cnrs.fr/sic_00260459/fr/

L’évaluation des publications scientifiques du facteur d’impact à…

L’évaluation des publications scientifiques : du facteur d’impact à l’indice de notoriété :

“Les différentes modalités d’évaluation, “classiques” et en émergence, des publications scientifiques: les modalités traditionnelles de l’évaluation des revues : “facteur d’impact” du JCR, associé à l’évaluation individuelle du SCI (Science Citation Index)… ; mécanismes, acteurs, importance, enjeux… de l’évaluation standard de la littérature scientifique. les nouvelles modalités d’évaluation de l’impact des revues et publications : par les moteurs de recherche (Google Scholar), sur les entrepôts en Open Access (CiteBase et autres statistiques sur les archives ouvertes, revues en ligne…), les enquêtes et autres recensements disciplinaires (CNRS, Faculty of 1000) etc. ; les figures, les modalités, les enjeux, mais aussi les problèmes posés par ces nouvelles formes d’évaluation et par la généralisation de “l’indice de notoriété” comme critère dominant de l’évaluation.”

URL : http://archivesic.ccsd.cnrs.fr/sic_00083870/fr/

L’évaluation des publications scientifiques : nouvelles approches, nouveaux enjeux

Après avoir resitué l’évaluation dans un contexte international (notamment Shanghai) et national (programme P150 de la LOLF), l’étude porte sur une analyse critique du modèle ISI et des modèles alternatifs (Eigenfactor et dérivés du Weighted Page Rank). Elle tente de définir les conditions d’une évaluation plus qualitative en lien avec les Archives ouvertes.

URL : http://archivesic.ccsd.cnrs.fr/sic_00589641/fr/

La bibliométrie un nouveau cap pour une archive…

La bibliométrie : un nouveau cap pour une archive institutionnelle :

“En complément de ses objectifs de diffusion et de conservation, Archimer, l’archive institutionnelle de l’Ifremer, offre un ensemble d’outils bibliométriques. Dès l’enregistrement, de nombreux automatismes homogénéisent les informations (noms d’auteurs, organismes, affiliation interne…), gage de qualité des analyses bibliométriques.

Archimer permet le calcul automatique de plusieurs indicateurs définis entre l’Ifremer et ses Ministères de Tutelles dans le cadre de son contrat quadriennal. Il offre également des éléments d’analyses de sa production documentaire (ex : répartition de la valeur des facteurs d’impacts des revues, évolution du nombre de citations des publications, présentation des collaborations internationales…).

La centralisation de cette production documentaire dans Archimer permettra ainsi l’abandon d’une multitude de systèmes actuellement utilisés par les différentes unités de recherche pour assurer ces fonctions. C’est donc un gain de productivité autant que de fiabilité qui est attendu.”

URL : http://archimer.ifremer.fr/doc/00031/14253/