核心期刊的优点:在核心期刊中检索并阅读相关文献,可以节省自己的精力,阅读到更好的文献,获得更有用的信息。将科研成果发表在核心期刊上可以增加提高自己的科研影响力,增加研究成果被同行看到和引用的几率。
核心期刊的局限:核心期刊是学术评价体系的一个重要组成部分,但并不是全部,也不是不变的。除了一些有名的综合性核心期刊如NATURE、SCIENCE等,一般情况下我们是在某一个学科范围内来界定的某一个学科的核心期刊。不同的学科之间,期刊影响因子不能做比较,因此一个学科的核心期刊到另一个学科就不一定是核心期刊。期刊影响因子还常被误用作为单篇文章或作者的评价标准,事实上相关机构会定期根据期刊表现重新评定核心期刊,或将期刊列入负面观察名单或者直接剔除名单。
虽然影响因子是世界公认的期刊评价指标。但一篇高被引用的文章可能对期刊影响因子产生重大的影响,因此仅用影响因子来评价期刊也是不全面的。
CA-Cancer Journal for Clinicians影响因子神话
CA Cancer J Clin是美国癌症学会创办的肿瘤专业期刊,也是世界上影响因子最高的医学期刊,影响因子近年都排在第一位。在2020年影响因子因新算法普遍水涨船高的情况下,更是直接突破500,令其他期刊难望其项背。究其原因,是因为有几篇论文的被引频次极高,为该期刊贡献了几十万次的引用。CA发布年度全球癌症统计数据,一篇是Global Cancer Statistics, 另一篇是Cancer Statistics,癌症研究科学家及相关研究者都会在论文中引用其权威数据来证明自身研究的必要性和可靠性。加之CA期刊本身发文量小,即使该期刊的其他文章引用次数很少,期刊的影响因子依然高得惊人。
Atca Crystallographica Section A 影响因子神话
2010年6月,Clarivate公司公布的2009年期刊影响因子激起了一场不小的波澜,前一年影响因子还只有2.051的《晶体学报A》(Acta Crystallographica Section A),居然跃升至49.926。同年Nature、Science的影响因子分别是34.480和29.747。
该期刊“暴发”的直接原因:2008年发表在该刊的文章《SHELX简史》(A short history of SHELX, Acta Cryst. (2008). A64,112-122),被引用次数高达5624次,贡献了2008年该刊72篇文章总被引次数的94.3%。SHELX是该作者编写的一个晶体分析软件为晶体学研究者普遍使用。作者在论文摘要中写到:对于晶体结构确定过程中用到开源SHELX程序的研究,都可以引用本文献;且在这个软件的安装协议中,也有类似的说明:只要您使用了SHELX软件,就应引用发表在《晶体学报A》的《SHELX简史》。2011年影响因子榜单公布,《晶体学报A》跌至原有水平——2.076。
国内相关部门就树立正确评价导向、建立健全分类评价体系发布相关文件和措施。2018年7月中共中央办公厅、国务院办公厅印发《关于深化项目审核、人才评价、机构评估改革的若干意见》; 2020年,教育部、科技部印发《关于规范高等学校SCI论文相关指标使用 树立正确评价导向的若干意见》,对破除论文“SCI至上”提出明确要求。
中共中央办公厅 国务院办公厅印发《关于深化项目评审、人才评价、机构评估改革的意见》
教育部 科技部印发《关于规范高等学校SCI论文相关指标使用 树立正确评价导向的若干意见》的通知
破除高等学校论文“SCI至上” 树立正确评价导向—教育部科技司负责人就《关于规范高等学校SCI论文相关指标使用 树立正确评价导向的若干意见》答记者问
旧金山科研评价宣言
2012年12月16日,在美国加利福利亚州旧金山举办的美国细胞生物学学会年会上,一些学术期刊的编辑和出版商对评价科研成果方法提出了一系列的建议,在此基础上形成“旧金山科研评价宣言”。截止到目前,共有2039家学术机构签署这份协议。 “旧金山科研评价”宣言的总体建议是反对使用基于期刊的定量指标如期刊影响因子作为评价单篇论文质量的替代指标,来衡量科学家个人的研究贡献,以及在人员聘用、晋升或资助决策中直接使用。
莱顿宣言
2015年4月,《自然》杂志发布由五位著名科研人员撰写的“莱顿宣言”。命名是源于该宣言是在2014年荷兰莱顿召开的第19届科学技术指标国际会议(19th International Conference on Science and Technology Indicators)起草并通过的。宣传撰写者提出,科研评价的定量方法(如文献计量学)已成为当今研究领域不可或缺的自然组成部分,并被决策者在不同层面用于评价科研质量;但同时,文献计量学经常被不加批判地应用,并且没有意识到方法学上的局限性。因此,提出以下10项原则:
1) Quantitative evaluation should support qualitative, expert assessment.
2) Measure performance against the research missions of the institution, group or researcher.
3) Protect excellence in locally relevant research.
4) Keep data collection and analytical processes open, transparent and simple.
5) Allow those evaluated to verify data and analysis.
6) Account for variation by field in publication and citation practices.
7) Base assessment of individual researchers on a qualitative judgement of their portfolio.
8) Avoid misplaced concreteness and false precision.
9) Recognize the systemic effects of assessment and indicators.
10) Scrutinize indicators regularly and update them.