Mots-clefs: bibliometric indicators Afficher/masquer les discussions | Raccourcis clavier

  • Hans Dillaerts le 23 November 2012 à 18 h 05 min Permalien
    Mots-clefs: bibliometric indicators, ,   

    F1000, Mendeley and Traditional Bibliometric Indicators :

    « This article compares the Faculty of 1000 (F1000) quality filtering results and Mendeley usage data with traditional bibliometric indicators, using a sample of 1397 Genomics and Genetics articles published in 2008 selected by F1000 Faculty Members (FMs). Both Mendeley user counts and F1000 article factors (FFas) correlate significantly with citation counts and associated Journal Impact Factors. However, the correlations for Mendeley user counts are much larger than those for FFas. It may be that F1000 is good at disclosing the merit of an article from an expert practitioner point of view while Mendeley user counts may be more closely related to traditional citation impact. Articles that attract exceptionally many citations are generally disorder or disease related, while those with extremely high social bookmark user counts are mainly historical or introductory. »

    URL : http://2012.sticonference.org/Proceedings/vol2/Li_F1000_541.pdf

    Post to Twitter Post to Delicious Post to Facebook

     
  • Hans Dillaerts le 18 July 2012 à 18 h 02 min Permalien
    Mots-clefs: , bibliometric indicators,   

    Google Scholar Metrics: an unreliable tool for assessing scientific journals :

    « We introduce Google Scholar Metrics (GSM), a new bibliometric product of Google that aims at providing the H-index for scientific journals and other information sources. We conduct a critical review of GSM showing its main characteristics and possibilities as a tool for scientific evaluation. We discuss its coverage along with the inclusion of repositories, bibliographic control, and its options for browsing and searching. We conclude that, despite Google Scholar’s value as a source for scien- tific assessment, GSM is an immature product with many shortcomings, and therefore we advise against its use for evalu- ation purposes. However, the improvement of these shortcomings would place GSM as a serious competitor to the other existing products for evaluating scientific journals. »

    URL : http://digibug.ugr.es/handle/10481/21540

    Post to Twitter Post to Delicious Post to Facebook

     
  • Hans Dillaerts le 27 May 2012 à 17 h 20 min Permalien
    Mots-clefs: bibliometric indicators, , ,   

    Le classement de Leiden: environnement scientifique et configuration :

    « Le classement de Leiden s’impose aujourd’hui comme une alternative pertinente et valable vis-à-vis de celui de Shanghai. De nombreux indicateurs font intervenir les caractéristiques propres aux champs disciplinaires et des calculs fondés sur le principe de distribution. Il est conçu par le centre CWTS de l’université néerlandaise de Leiden. »

    « The Leiden Ranking is considered today as quite a pertinent and valuable alternative vs. the Shanghai Ranking. A significant number of indicators involve for instance Fields Citation Scores and data distribution. It is conceived by the CWTS of the University of Leiden – The Netherlands. »

    URL : http://archivesic.ccsd.cnrs.fr/sic_00696098

    Post to Twitter Post to Delicious Post to Facebook

     
  • Hans Dillaerts le 6 March 2012 à 22 h 13 min Permalien
    Mots-clefs: bibliometric indicators, ,   

    Which alternative tools for bibliometrics in an research institute ? :

    « Nowadays, bibliometrics is a frequently used tool in scientific and technical information, it can be useful to quantify scientific production and for collective or individual evaluations. Web of Science (Thomson ISI) and impact factor calculated by JCR are the better known references. We will underline the limits and setbacks of these overused indicators, especially the bias factor h. Other alternative tools are emerging today. Our presentation will focus on comparing all these products, and we will study their interests for librarians and researchers. »

    « Aujourd’hui la bibliométrie est un outil fréquemment utilisé pour quantifier la production scientifique et aussi pour les évaluations des chercheurs et des institutions. Le WoK et le JCR pour le facteur d’impact sont des outils de référence. Nous voudrions souligner les limites de ces indicateurs, nous soulignerons les biais du facteur h. D’autres outils alternatifs émergent aujourd’hui. Cette communication analysera d’autres outils qui peuvent être utilisés en bibliométrie, nous en verrons les avantages et les inconvénients pour les documentalistes et les chercheurs. »

    URL : http://archivesic.ccsd.cnrs.fr/sic_00668741

    Post to Twitter Post to Delicious Post to Facebook

     
  • Hans Dillaerts le 9 August 2011 à 18 h 51 min Permalien
    Mots-clefs: bibliometric indicators, , ,   

    The visibility of Wikipedia in scholarly publications :

    « Publications in the Institute of Scientific Information’s (ISI, currently Thomson Reuters) Web of Science (WoS) and Elsevier’s Scopus databases were utilized to collect data about Wikipedia research and citations to Wikipedia. The growth of publications on Wikipedia research, the most active researchers, their associated institutions, academic fields and their geographic distribution are treated in this paper. The impact and influence of Wikipedia were identified, utilizing cited work found in (WoS) and Scopus. Additionally, leading authors, affiliated institutions, countries, academic fields, and publications that frequently cite Wikipedia are identified. »

    URL : http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/3492/3031

    Post to Twitter Post to Delicious Post to Facebook

     
  • Hans Dillaerts le 14 July 2011 à 18 h 39 min Permalien
    Mots-clefs: bibliometric indicators, , , raw datasets,   

    Who Shares? Who Doesn’t? Factors Associated with Openly Archiving Raw Research Data :

    « Many initiatives encourage investigators to share their raw datasets in hopes of increasing research efficiency and quality. Despite these investments of time and money, we do not have a firm grasp of who openly shares raw research data, who doesn’t, and which initiatives are correlated with high rates of data sharing. In this analysis I use bibliometric methods to identify patterns in the frequency with which investigators openly archive their raw gene expression microarray datasets after study publication.

    Automated methods identified 11,603 articles published between 2000 and 2009 that describe the creation of gene expression microarray data. Associated datasets in best-practice repositories were found for 25% of these articles, increasing from less than 5% in 2001 to 30%–35% in 2007–2009. Accounting for sensitivity of the automated methods, approximately 45% of recent gene expression studies made their data publicly available.

    First-order factor analysis on 124 diverse bibliometric attributes of the data creation articles revealed 15 factors describing authorship, funding, institution, publication, and domain environments. In multivariate regression, authors were most likely to share data if they had prior experience sharing or reusing data, if their study was published in an open access journal or a journal with a relatively strong data sharing policy, or if the study was funded by a large number of NIH grants. Authors of studies on cancer and human subjects were least likely to make their datasets available.

    These results suggest research data sharing levels are still low and increasing only slowly, and data is least available in areas where it could make the biggest impact. Let’s learn from those with high rates of sharing to embrace the full potential of our research output. »

    URL : http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0018657

    Post to Twitter Post to Delicious Post to Facebook

     
  • Hans Dillaerts le 5 May 2011 à 19 h 05 min Permalien
    Mots-clefs: , bibliometric indicators, , , , , ,   

    Les nouvelles formes d’évaluation scientifique : quelles évolutions en sciences, technique et médecine ? :

    « Dès 1960, l’Institute for Scientific Information (I.S.I.) de Philadelphie, sous l’impulsion d’Eugen Garfield, a mis en œuvre le Science Citation Index (S.C.I) pour l’évaluation des auteurs, suivi en 1975 par le Journal Citation Reports (J.C.R.) pour celle des revues. Au terme d’une analyse critique de ce modèle, nous envisagerons de nouvelles approches : l’algorithme mis au point sur le site Citebase par les équipes de S.Harnad à Southampton (G.-B.) et T.Brody à Cornell (Ithaca, N.-Y.) sur le miroir britannique d’ArXiv.org. (l’un des plus importants sites mondiaux d’archives ouvertes scientifiques) Scholar Google, avatar du moteur généraliste standard lancé sur le Net en novembre 2004 deux alternatives récentes à la définition d’un facteur d’impact proposées par J.E. Hirsch (facteur h lié à la production individuelle d’un chercheur) et l’équipe de J. Bollen (Journal Status) ; donc sur les Auteurs d’une part et les Sources de l’autre le modèle du  » collectif  » Faculty of 1000 dans les domaines biomédicaux. Son originalité par rapport aux précédents réside dans le primat de l’évaluation  » humaine  » qualitative sur le principe statistique de la citation. Après un essai de typologie des comités de lecture et des usages en cours dans les différentes disciplines scientifiques, on conclura sur la nécessité d’explorer rapidement la voie d’un nouvel outil d’évaluation libre d’accès, dont les règles seraient clairement définies, tant au niveau de la couverture qu’à celui des critères d’analyse qualitative et statistique. »

    URL : http://archivesic.ccsd.cnrs.fr/sic_00260459/fr/

    Post to Twitter Post to Delicious Post to Facebook

     
  • Hans Dillaerts le 5 May 2011 à 19 h 01 min Permalien
    Mots-clefs: , bibliometric indicators, , , , , , Impact factors   

    L’évaluation des publications scientifiques : du facteur d’impact à l’indice de notoriété :

    « Les différentes modalités d’évaluation, « classiques » et en émergence, des publications scientifiques: les modalités traditionnelles de l’évaluation des revues : « facteur d’impact » du JCR, associé à l’évaluation individuelle du SCI (Science Citation Index)… ; mécanismes, acteurs, importance, enjeux… de l’évaluation standard de la littérature scientifique. les nouvelles modalités d’évaluation de l’impact des revues et publications : par les moteurs de recherche (Google Scholar), sur les entrepôts en Open Access (CiteBase et autres statistiques sur les archives ouvertes, revues en ligne…), les enquêtes et autres recensements disciplinaires (CNRS, Faculty of 1000) etc. ; les figures, les modalités, les enjeux, mais aussi les problèmes posés par ces nouvelles formes d’évaluation et par la généralisation de « l’indice de notoriété » comme critère dominant de l’évaluation. »

    URL : http://archivesic.ccsd.cnrs.fr/sic_00083870/fr/

    Post to Twitter Post to Delicious Post to Facebook

     
    • Hans Dillaerts le 5 mai 2011 à 19 h 02 min Permalien | Connectez-vous pour répondre

      Summary :

      « Compared analysis of Citation indexes and Impact factors. Critical survey of the ISI resources and algorithms. Investigation of new evaluation models (CiteBase, Faculty of 1000, Google Scholar, CNRS/European Science Foundation) following the trends of Open Access in general and Open Archives in particular. »

  • Hans Dillaerts le 29 April 2011 à 21 h 22 min Permalien
    Mots-clefs: Assessment, bibliometric indicators, , , Facteurs d'impact, , ,   

    L’évaluation des publications scientifiques : nouvelles approches, nouveaux enjeux :

    « Après avoir resitué l’évaluation dans un contexte international (notamment Shanghai) et national (programme P150 de la LOLF), l’étude porte sur une analyse critique du modèle ISI et des modèles alternatifs (Eigenfactor et dérivés du Weighted Page Rank). Elle tente de définir les conditions d’une évaluation plus qualitative en lien avec les Archives ouvertes. »

    URL : http://archivesic.ccsd.cnrs.fr/sic_00589641/fr/

    Post to Twitter Post to Delicious Post to Facebook

     
  • Hans Dillaerts le 30 March 2011 à 10 h 51 min Permalien
    Mots-clefs: archive institutionelle, , bibliometric indicators, , , , ,   

    La bibliométrie : un nouveau cap pour une archive institutionnelle :

    « En complément de ses objectifs de diffusion et de conservation, Archimer, l’archive institutionnelle de l’Ifremer, offre un ensemble d’outils bibliométriques. Dès l’enregistrement, de nombreux automatismes homogénéisent les informations (noms d’auteurs, organismes, affiliation interne…), gage de qualité des analyses bibliométriques.

    Archimer permet le calcul automatique de plusieurs indicateurs définis entre l’Ifremer et ses Ministères de Tutelles dans le cadre de son contrat quadriennal. Il offre également des éléments d’analyses de sa production documentaire (ex : répartition de la valeur des facteurs d’impacts des revues, évolution du nombre de citations des publications, présentation des collaborations internationales…).

    La centralisation de cette production documentaire dans Archimer permettra ainsi l’abandon d’une multitude de systèmes actuellement utilisés par les différentes unités de recherche pour assurer ces fonctions. C’est donc un gain de productivité autant que de fiabilité qui est attendu. »

    URL : http://archimer.ifremer.fr/doc/00031/14253/

    Post to Twitter Post to Delicious Post to Facebook

     
c
Écrire un nouvel article
j
Prochain article/commentaire
k
Article/commentaire précédent
r
répondre
e
modifier
o
Afficher/masquer les commentaires
t
haut de page
l
se connecter
h
Afficher/masquer l'aide
shift + esc
Annuler