Индекс Хирша: модернизация необходима (еще раз о количественной оценке работы ученых)

К.Иванов
Кирилл Иванов

Открытое письмо в ФАНО и Минобрнауки

Как известно, оценка работы ученых производится в настоящее время с достаточно широким использованием наукометрических показателей, и, в первую очередь, индекса Хирша1 [Hirsch, 2005]. И, как бы к этому ни относится (см., например, статьи Д.Гельтмана; А.Дмитриева, А.Полянина, Rousseau R. и др.), сие использование индексов есть объективная реальность, существующая вне зависимости от наших на то желаний и даже где-то чаяний.

Итак, поговорим об индексе Хирша, точнее об острой необходимости его модернизации. Мы же все-таки ученые, и коль скоро нас оценивают по какому-то критерию, то уж, наверное, научный разум (в том числе и коллективный) должен бы этот критерий постараться привести в порядок и сделать возможно более объективным, а не просто выгодным и удобным определенным отдельным группам. Если он конечно разумный, этот разум-то. Как известно, высокую величину индекса Хирша многие научные работники, особенно физико-химики, материаловеды и др., очень быстро набирают коллективными публикациями на популярные темы, сверхпроводимость какую-нибудь и пр. Причем у такой широко цитируемой статьи количество материаловедов соавторов может быть и 10, и 30 и более (до 2000 и более соавторов!). Индекс же Хирша, как известно, вырастет при этом у всех соавторов вне зависимости от их количества, причем на ту же самую величину, как и в том случае, если бы все они были единственными авторами той замечательной, широко цитируемой статьи. Но все-таки для оценки личного вклада исследователя в науку (а для этого собственно главным образом и применяется индекс Хирша) есть, наверное, разница – один он был автором статьи, открытия и пр., или же их было человек 50 или более.

Поэтому предлагаю ввести «Хк – индекс Хирша корректированный». Этот коэффициент считается также как индекс Хирша, но при этом количество ссылок на конкретную статью делится на число соавторов этой статьи. Причем первый автор публикации (только он один!) учитывается два раза. Поскольку все-таки есть разница (или, по крайней мере, – должна быть) между первым автором и другими соавторами. Во многих здоровых научных коллективах, как известно, обычно используется такой принцип – первый автор статьи это есть её главный автор, остальные же соавторы идут просто по алфавиту. Чтобы не мудрить лишнего и попусту не заниматься регулярными разборками «кто есть ху» (как сказанула одна известная «голова с заплаткою»).

Пример: опубликовали статью трое – П.Петров, С.Сердюков и Е.Васильева и на статью есть 60 ссылок. Эти ссылки делятся в пропорции, причем как если бы Петров был дважды соавтором – Петров, Петров, Сердюков, Васильева. Тогда у первого автора Петрова эта статья будет фигурировать как имеющая 30 ссылок, у Сердюкова с Васильевой – как статья с 15 ссылками. Если авторы этой статьи лишь Петров и Сердюков (ну, вот опять Васильеву слили…), то у Сердюкова она будет иметь 60:3=20 ссылок. А у Петрова 60:3×2=40 ссылок.

Итоговая картина (карта науки) с применением Хк будет гораздо объективней, чем имеющаяся сейчас – с использованием h Хирша. Но конечно шансов на жизнь предлагаемому коэффициенту Хк сильно убавляют материаловеды и пр., сбившиеся в крупные стаи и уже поимевшие благодаря этому высокий индекс Хирша. Так, у материаловеда академика К.А. Солнцева (бывшего [ли!?] управляющего делами РАН – многие эти «дела» недавно широко освещались в прессе и TV) h Хирша =14. Из этих 14 статей нет ни одной единоличной, и лишь в двух он первый автор. Количество соавторов чаще всего 6, К.А. Солнцев обычно последний или предпоследний. И это совершенно не худший пример, а рядовой (“нормальный”, если такое слово можно в таких случаях применять). Некоторые же можно сказать, как бы пишут как бы целыми институтами. Так, список соавторов в реально первой же попавшейся мне такой статье [Physics Letters B. 2012. Т. 710. С. 26-48] занимает 58 строк, примерно по 5 соавторов в каждой строке (по головам-то мне лень их считать было…). Я нисколько не сомневаюсь, что эта статья очень хорошая, раз на нее уже есть 21 ссылка, но все же согласитесь, что по такой публикации, наверное, трудно оценивать индивидуальную работу примерно 280 человек (соавторов)…

А так-то введение в практику предлагаемого индекса Хк имело бы с течением времени и большой положительный моральный эффект, поскольку он еще и направлен против фальшивого соавторства.

Еще полезнее было бы заменить используемый сейчас индекс Хирша на Ckиндекс цитирования корректированный, т.е. общую сумму цитирований того или иного автора, с учетом соавторства по описанной выше процедуре.

Действительно, согласитесь, не вполне понятно, почему ученый, написавший, скажем, 20 статей, на каждую из которых сослались по 2 раза (итого 40 ссылок, h Хирша=2), должен считаться гораздо менее научным, чем ученый, написавший 6 статей, на которые по 6 ссылок (итого 36 ссылок, h Хирша=6, т.е. в 9 раз выше, чем у первого [6×6]:[2×2]=9). Вопрос – на каком таком основании второй хоть сколькото (хоть на миллиметр!) “научнее” первого?! Этому нет доказательств2.

Еще одна очевидная проблема – это учет и минимизирование влияния самоцитирований. Так, например, один член-корр. из института, где я работаю, ссылается почти исключительно только на себя, любимого. И ничего так живет, не тужит. В целом это плохой признак. Получается, что человек слышит только сам себя. Я даже предлагал [Иванов, 2011] ввести коэффициент с названием Кгл– коэффициент глухоты (или глухаря). Для любой публикации

Кгл = Nсвоих : Nобщее,

где Nсвоих и Nобщее, соответственно, количество ссылок на самих себя (соавторов публикации) к общему количеству цитированных в данной публикации работ.

Мне кажется, что если при репрезентативной выборке (например, в геологии обычно начиная с 8 и более [в данном контексте – ссылок в публикации]) Кгл более 0,4 это уже плохо, ну и чем ближе к 1,0 тем, наверное, больше оснований начинать лечиться от мании величия.

И все же полностью, на 100% выкидывать самоцитирования, возможно, и неправильно – например, ученый работает в очень узкой области науки (но кто ж его знает, вдруг именно она-то в итоге и осчастливит многострадальное человечество?!). Поэтому предложение сводится к тому, чтобы учет самоцитирований отчасти все же оставить, но по «цене» на порядок более низкой.

В общем, переходя от рассуждений к конкретике, предлагаю минимизировать влияние обильных самоцитирований следующим образом:

Ck (индекс цитирования корректированный) × (110% – число самоцитирований по elibrary в %) : 100.

Т.е., например, ученый с Ck = 500 (т.е. имеющий 500 «корректированных цитирований») и числом самоцитирований 70% (оно есть в e-library) будет иметь чистый индекс цитирования (можно назвать его Сс от clear, чистый)

Сс = 500 × (110 – 70) : 100 = 500 × 0,4 = 200.

Итак, я утверждаю, что Сс, т.е. чистая общая сумма цитирований всех научных статей (т.е. деленная на кол-во соавторов и избавленная от влияния самоцитирований, как описано выше), есть гораздо более объективная характеристика научного вклада того или иного ученого. В той мере, как это пока можно объективно и беспристрастно (автоматизировано) учесть, причем чрезмерно не заморачиваясь. Так иногда высказываются предложения учитывать еще и рейтинг журналов, но я с этим не могу согласиться. Во-первых, в принципе значимость научного результата не зависит от места публикации. Во-вторых, количество ссылок этот рейтинг журналов итак учитывает – если статья опубликована в престижном журнале с высоким тиражом и рейтингом, значит, ее прочитают больше ученых, соответственно (если в статье есть смысл) на нее и будет больше ссылок. В-третьих, это реально головная боль, все эти индексы непрерывно отслеживать, что-то там умножать, интегрировать и пр.

В-четвертых (last but not the least), наиболее высокорейтинговые англоязычные журналы сплошь и рядом не публикуют статьи русских ученых, если в их коллективе нет иностранцев. Английский язык де плохой, еще какую-нибудь якобы причину сыщут. В результате отечественная наука переходит в подчиненное положение, а чисто наши достижения зачастую становятся некими “общими”. Есть на этот счет и удручающая статистика и примеры такие знают, я думаю, очень многие ученые. Чисто чтобы не быть голословным – приведу один из своих. Написали мы как-то с отцом мощную прорывную статью. Идея была его, я был помощником, переводчиком, «адвокатом дьявола» и пр. И послали в наиболее престижный журнал по теме. Вскоре приходит ответ от американца – статья, мол, неплохая, но, естественно, нуждается в доработке, а с таким американским (английским языком) мы ее принять все равно не сможем, я бы, дескать, мог его улучшить, но я лишь член редколлегии и рецензент, но вот если бы я был вашим соавтором, статья бы, конечно, вышла без проблем. Именно вот так. Видит белый господин, что туземцы с алмазом бегают, прямо грех не попробовать отобрать. Думаю, что если б такое письмо было написано, скажем немцу, вышел бы большой скандал (а может и не вышел бы, с учетом что и у фрау Меркель американцы телефон прослушивают), во всяком случае, такое письмо немцу вряд ли бы было написано. Некоторые в такой ситуации соглашаются (мне известно много подобных примеров), но мы статью сразу забрали, послали ее в другой менее рейтинговый, но тоже американский журнал, где она сразу была опубликована [Ivanov, Ivanov, 1993], без каких-либо изменений и/или нареканий на качество языка. Но ссылок на нее сейчас, увы, немного (10), т.е. примерно на порядок меньше, чем если бы публикация была бы сделана в первом журнале.

Еще один немаловажный момент, который необходимо учесть. Любой индекс цитирования, во-первых, есть величина сильно инерционная (поскольку ясно, что при прочих равных на только что вышедшую статью будет меньше ссылок, чем на опубликованную лет 5 назад), во-вторых, не учитывает тот факт, что если на статью нет или мало ссылок, то это еще не приговор. Не свидетельство её никчемности, ненужности и пр. «Позитивных причин нессылаемости» может быть достаточно много. Например, статья «слишком умная», или намного опередила своё время и соответственно её время еще придет. Или в статье рассматривается какой-то узкий научный вопрос, которым сейчас почти никто более не занимается. Да хоть бы и совсем никто – не всему же научному человечеству одни бозоны Хиггса изучать…, есть и менее популярные научные темы. Скажем изучение каких-нибудь ну совсем несъедобных мшанок моря Лаптевых. Опять же знать не можно – а вдруг именно в этих мшанках и содержится мощнейшее лекарство, допустим, от инсультов. Глядишь, и не хуже «бозонов» в итоге окажется. Короче говоря – если статья написана и опубликована в настолько открытой печати, что попала, например, в базу e-library – это уже должен быть какой то плюс ее автору. И используемый итоговый наукометрический коэффициент (назовем его – суммарный научный индекс Si, от scientific index) должен отличать, скажем, ученого, опубликовавшего за последние 5 лет 20 статей, на которые нет пока ссылок, от ученого, вообще ничего не опубликовавшего.

И обеспечить это проще простого:

Si = Сс + n,

где n – число публикаций данного ученого в базе elibrary.

Можно рассчитывать не только суммарный (совокупный за всё время работы ученого) Si, но и величину этого индекса для характеристики работы ученого за последние 5 или 10 лет (Si5 и Si10 соответственно).

Введение предложенных наукометрических коэффициентов для объективной оценки научного труда в России необходимо именно сейчас, в момент реорганизации науки и грядущих видимо неминуемых сокращений штатов. Прикидки затрат времени показывают, что примерно 7-8 рядовых сотрудников, скажем ФАНО, всего лишь за 1-1,5 месяца смогут рассчитать Si, а также Хк, Ck, Сс всех работающих в РАН. Можно и того проще – поручить институтам самим рассчитывать. Если же всё оставить «на усмотрение» чиновников, то сокращать будут, вероятнее всего, просто ученых, неугодных местному начальству, без какой-либо объективности, совершенно бюрократам не нужной. При этом “достижения” холуёв, естественно, объявят «результатами намного превосходящими мировой уровень..» и т.п. Бумага то она, как известно, всё терпит, особенно если пишут по ней организмы, пораженные ржавчиной коррупции.

Призываю коллег к обсуждению затронутых вопросов.

Всем удачи!

Кирилл Святославич Иванов,
доктор геол.-мин. наук

Литература

  • Гельтман Д. Не Хиршем единым… ТрВ №111. 28 августа 2012 г.
  • Дмитриев А.И. Интегральный наукометрический показатель. ТрВ. 06 июня 2014 г. Рубрика: Гайд-парк онлайн
  • Иванов К.С. Коэффициенты соответствия занимаемой должности и «блата» — новые (альтернативные) наукометрические показатели для объективной оценки научного труда в России. ТрВ. 09 апреля 2014 г. Рубрика: Гайд-парк онлайн
  • Иванов К.С. К истории изучения Платиноносного пояса Урала // Уральский геологический журнал. 2011, №2. С.51-57.
  • Полянин А.Д., 2014. Недостатки индексов цитируемости и Хирша. Индексы максимальной цитируемости. http://eqworld.ipmnet.ru/ru/info/sci-edu/Polyanin_IndexH_2014.html
  • Ivanov S.N., Ivanov K.S. Hydrodynamic Zoning of the Earth’s crust and its Significance /Journal of Geodynamics, 1993, vol. 17, N 4, p.155-180.
  • Hirsch J.E. An index to quantify an individual’s scientific research output. Proc. Nat. Acad. Sci. // 2005. V. 102(46). P.16569–16572.
  • Rousseau R., Garcia-Zorita C., Sanz-Casado E. The h-bubble //Journal of Informetrics. 2013. V.7. P. 294–300.

1 Индекс Хирша является количественной характеристикой продуктивности учёного (реже — группы учёных). Учёный с индексом h опубликовал h статей, на каждую из которых сослались как минимум h раз.

2 Близкое по смыслу предложение было высказано А.Д.Поляниным (2014), предложившим ввести «индекс максимальной цитируемости (f-индекс)», считаемый по 5 наиболее цитируемым работам ученого (суммируются ссылки на них с учетом соавторства). Но тут, во-первых, не понятно, почему берется именно 5 работ? А не все? И чем, например, хуже шестая? А, во вторых, получается явный крен в пользу обзорных, а также научно-популярных и тому подобных «вторичных» статей, нового научного знания, как правило, не несущих.

32 комментария

  1. Важна не столько величина вклада в науку того или иного ученого,
    сколько владение вкладами других и возможность получать от этого выгоду и прибыль.
    Индекс, как его ни определяй, должен позволять руководству, директору
    или владельцу научной организации, рулить ею.
    Количественная оценка результатов работы ученого — это средство управления им,
    следовательно, индекс принципиально не может быть объективным, то есть
    независимым от человека.
    Оформление собственности на идею, то есть на самое ценное, из
    чего потом и получаются публикации и цитирования,
    вряд ли принципиально возможно.
    В то же время, организацию обсуждения альтернативных возможностей
    для определения индекса следует признать по-своему полезной:
    это создает у рядовых сотрудников ощущение перспектив, сопричастности, общего дела и способствует укреплению их желания работать лучше.

Добавить комментарий

Ваш адрес email не будет опубликован.

Оценить: