L’évaluation des publications scientifiques du facteur d’impact à…

L’évaluation des publications scientifiques : du facteur d’impact à l’indice de notoriété :

“Les différentes modalités d’évaluation, “classiques” et en émergence, des publications scientifiques: les modalités traditionnelles de l’évaluation des revues : “facteur d’impact” du JCR, associé à l’évaluation individuelle du SCI (Science Citation Index)… ; mécanismes, acteurs, importance, enjeux… de l’évaluation standard de la littérature scientifique. les nouvelles modalités d’évaluation de l’impact des revues et publications : par les moteurs de recherche (Google Scholar), sur les entrepôts en Open Access (CiteBase et autres statistiques sur les archives ouvertes, revues en ligne…), les enquêtes et autres recensements disciplinaires (CNRS, Faculty of 1000) etc. ; les figures, les modalités, les enjeux, mais aussi les problèmes posés par ces nouvelles formes d’évaluation et par la généralisation de “l’indice de notoriété” comme critère dominant de l’évaluation.”

URL : http://archivesic.ccsd.cnrs.fr/sic_00083870/fr/

Réseaux de co citations et Open Access pour…

Réseaux de co-citations et Open Access : pour un renouveau des méthodes d’évaluation :

“Depuis quelques années, la méthodologie en matière d’évaluation des publications scientifiques fait l’objet d’une réflexion accrue, tant de la part des chercheurs que des professionnels de la documentation appelés à l’appliquer. Le modèle classique, en usage dans la majorité des instances administratives, émanant de l’Institute for Scientific Information de Philadelphie (ISI) révèle un certain nombre de limites notamment dues à l’absence de nuances et à des modes de calcul bruts qui semblent privilégier l’aspect comptable et quantitatif au détriment de la qualité. Les modèles alternatifs proposent l’application fine et nuancée de la méthode mathématique de la ” marche aléatoire ” (random walk) avec l’exécution itérative de l’algorithme de Lawrence Page (utilisé par Google pour le tri et l’affichage des pages Web) algorithme pondéré connu sous l’appellation Weighted PageRank. Associée à la détection des co-citations, cette méthode permet de visualiser des collèges invisibles, des affinités entre titres de périodiques et surtout la traçabilité des citations. Celle-ci est déterminante dans la définition qualitative de l’évaluation qui semble minorée dans le modèle classique.”

URL : http://archivesic.ccsd.cnrs.fr/sic_00589630/fr/

Tendances actuelles en bibliométrie panorama des ressources évolution…

Tendances actuelles en bibliométrie : panorama des ressources, évolution, perception :

“De quelles bases de données et de quels outils d’exploitation disposons-nous pour analyser la production des chercheurs et bâtir des indicateurs pertinents ? On analyse les principales ressources bibliographiques et logicielles actuellement utilisées en bibliométrie pour évaluer la recherche – des plus connues comme Web of Science, Journal Citation Reports, Scopus, Scholar Google ou Harzing PoP aux plus récentes ou confidentielles comme Citebase, Citeseer, Sigaps, Scimago ou Eigenfactor.”

URL : http://archivesic.ccsd.cnrs.fr/sic_00589649/fr/

Author Co Citation Analysis ACA a powerful tool…

Author Co-Citation Analysis (ACA): a powerful tool for representing implicit knowledge of scholar knowledge workers :

“In the last decade, knowledge has emerged as one of the most important and valuable organizational assets. Gradually this importance caused to emergence of new discipline entitled ―knowledge management‖. However one of the major challenges of knowledge management is conversion implicit or tacit knowledge to explicit knowledge. Thus Making knowledge visible so that it can be better accessed, discussed, valued or generally managed is a long-standing objective in knowledge management. Accordingly in this paper author co- citation analysis (ACA) will be proposed as an efficient technique of knowledge visualization in academia (Scholar knowledge workers).”

URL : http://eprints.rclis.org/handle/10760/15501

La bibliométrie un nouveau cap pour une archive…

La bibliométrie : un nouveau cap pour une archive institutionnelle :

“En complément de ses objectifs de diffusion et de conservation, Archimer, l’archive institutionnelle de l’Ifremer, offre un ensemble d’outils bibliométriques. Dès l’enregistrement, de nombreux automatismes homogénéisent les informations (noms d’auteurs, organismes, affiliation interne…), gage de qualité des analyses bibliométriques.

Archimer permet le calcul automatique de plusieurs indicateurs définis entre l’Ifremer et ses Ministères de Tutelles dans le cadre de son contrat quadriennal. Il offre également des éléments d’analyses de sa production documentaire (ex : répartition de la valeur des facteurs d’impacts des revues, évolution du nombre de citations des publications, présentation des collaborations internationales…).

La centralisation de cette production documentaire dans Archimer permettra ainsi l’abandon d’une multitude de systèmes actuellement utilisés par les différentes unités de recherche pour assurer ces fonctions. C’est donc un gain de productivité autant que de fiabilité qui est attendu.”

URL : http://archimer.ifremer.fr/doc/00031/14253/

How and why scholars cite on Twitter

Scholars are increasingly using the microblogging service Twitter as a communication platform. Since citing is a central practice of scholarly communication, we investigated whether and how scholars cite on Twitter.

We conducted interviews and harvested 46,515 tweets from a sample of 28 scholars and found that they do cite on Twitter, though often indirectly. Twitter citations are part of a fast-moving conversation that participants believe reflects scholarly impact. Twitter citation metrics could augment traditional citation analysis, supporting a “scientometrics 2.0”.

URL : http://clintlalonde.net/wp-content/uploads/2010/12/201_Final_Submission.pdf

Web Services for Bibliometrics

Institutional repositories have spread in universities where they provide services for recording, distributing, and preserving the institution’s intellectual output. When the Lausanne “academic server”, named SERVAL, was launched at the end of 2008, the Faculty of Biology and Medicine addressed from the outset the issue of quality of metadata. Accuracy is fundamental since research funds are allocated on the basis of the statistics and indicators provided by the repository. The Head of faculty also charged the medical library to explore different ways to measure and assess the research output. The first step for the Lausanne university medical library was to implement the PubMed and the Web of Science web services to easily extract clean bibliographic information from the databases directly into the repository.

Now the medical library is testing other web services (from CrossRef, Web of Science, etc.) to generate quantitative data on research impact mainly. The approach is essentially based on citation linking. Although the utility of citation and bibliometric evaluation is still debated, the most prevalent output measures used for research evaluation are still those based on citation analysis. Even when a new scientific evaluation indicator is proposed, such as h-index, we can always see its link with citation. Additionally, the results of a new indicator are often compared with citation analysis. The presentation will review the web services which might be used in institutional repositories to collect and aggregate citation information for the researchers’ publications.

URL : http://archivesic.ccsd.cnrs.fr/sic_00540289/fr/