Открытое письмо в ФАНО и Минобрнауки
Как известно, оценка работы ученых производится в настоящее время с достаточно широким использованием наукометрических показателей, и, в первую очередь, индекса Хирша1 [Hirsch, 2005]. И, как бы к этому ни относится (см., например, статьи Д.Гельтмана; А.Дмитриева, А.Полянина, Rousseau R. и др.), сие использование индексов есть объективная реальность, существующая вне зависимости от наших на то желаний и даже где-то чаяний.
Итак, поговорим об индексе Хирша, точнее об острой необходимости его модернизации. Мы же все-таки ученые, и коль скоро нас оценивают по какому-то критерию, то уж, наверное, научный разум (в том числе и коллективный) должен бы этот критерий постараться привести в порядок и сделать возможно более объективным, а не просто выгодным и удобным определенным отдельным группам. Если он конечно разумный, этот разум-то. Как известно, высокую величину индекса Хирша многие научные работники, особенно физико-химики, материаловеды и др., очень быстро набирают коллективными публикациями на популярные темы, сверхпроводимость какую-нибудь и пр. Причем у такой широко цитируемой статьи количество материаловедов соавторов может быть и 10, и 30 и более (до 2000 и более соавторов!). Индекс же Хирша, как известно, вырастет при этом у всех соавторов вне зависимости от их количества, причем на ту же самую величину, как и в том случае, если бы все они были единственными авторами той замечательной, широко цитируемой статьи. Но все-таки для оценки личного вклада исследователя в науку (а для этого собственно главным образом и применяется индекс Хирша) есть, наверное, разница – один он был автором статьи, открытия и пр., или же их было человек 50 или более.
Поэтому предлагаю ввести «Хк – индекс Хирша корректированный». Этот коэффициент считается также как индекс Хирша, но при этом количество ссылок на конкретную статью делится на число соавторов этой статьи. Причем первый автор публикации (только он один!) учитывается два раза. Поскольку все-таки есть разница (или, по крайней мере, – должна быть) между первым автором и другими соавторами. Во многих здоровых научных коллективах, как известно, обычно используется такой принцип – первый автор статьи это есть её главный автор, остальные же соавторы идут просто по алфавиту. Чтобы не мудрить лишнего и попусту не заниматься регулярными разборками «кто есть ху» (как сказанула одна известная «голова с заплаткою»).
Пример: опубликовали статью трое – П.Петров, С.Сердюков и Е.Васильева и на статью есть 60 ссылок. Эти ссылки делятся в пропорции, причем как если бы Петров был дважды соавтором – Петров, Петров, Сердюков, Васильева. Тогда у первого автора Петрова эта статья будет фигурировать как имеющая 30 ссылок, у Сердюкова с Васильевой – как статья с 15 ссылками. Если авторы этой статьи лишь Петров и Сердюков (ну, вот опять Васильеву слили…), то у Сердюкова она будет иметь 60:3=20 ссылок. А у Петрова 60:3×2=40 ссылок.
Итоговая картина (карта науки) с применением Хк будет гораздо объективней, чем имеющаяся сейчас – с использованием h Хирша. Но конечно шансов на жизнь предлагаемому коэффициенту Хк сильно убавляют материаловеды и пр., сбившиеся в крупные стаи и уже поимевшие благодаря этому высокий индекс Хирша. Так, у материаловеда академика К.А. Солнцева (бывшего [ли!?] управляющего делами РАН – многие эти «дела» недавно широко освещались в прессе и TV) h Хирша =14. Из этих 14 статей нет ни одной единоличной, и лишь в двух он первый автор. Количество соавторов чаще всего 6, К.А. Солнцев обычно последний или предпоследний. И это совершенно не худший пример, а рядовой (“нормальный”, если такое слово можно в таких случаях применять). Некоторые же можно сказать, как бы пишут как бы целыми институтами. Так, список соавторов в реально первой же попавшейся мне такой статье [Physics Letters B. 2012. Т. 710. С. 26-48] занимает 58 строк, примерно по 5 соавторов в каждой строке (по головам-то мне лень их считать было…). Я нисколько не сомневаюсь, что эта статья очень хорошая, раз на нее уже есть 21 ссылка, но все же согласитесь, что по такой публикации, наверное, трудно оценивать индивидуальную работу примерно 280 человек (соавторов)…
А так-то введение в практику предлагаемого индекса Хк имело бы с течением времени и большой положительный моральный эффект, поскольку он еще и направлен против фальшивого соавторства.
Еще полезнее было бы заменить используемый сейчас индекс Хирша на Ck –индекс цитирования корректированный, т.е. общую сумму цитирований того или иного автора, с учетом соавторства по описанной выше процедуре.
Действительно, согласитесь, не вполне понятно, почему ученый, написавший, скажем, 20 статей, на каждую из которых сослались по 2 раза (итого 40 ссылок, h Хирша=2), должен считаться гораздо менее научным, чем ученый, написавший 6 статей, на которые по 6 ссылок (итого 36 ссылок, h Хирша=6, т.е. в 9 раз выше, чем у первого [6×6]:[2×2]=9). Вопрос – на каком таком основании второй хоть сколько—то (хоть на миллиметр!) “научнее” первого?! Этому нет доказательств2.
Еще одна очевидная проблема – это учет и минимизирование влияния самоцитирований. Так, например, один член-корр. из института, где я работаю, ссылается почти исключительно только на себя, любимого. И ничего так живет, не тужит. В целом это плохой признак. Получается, что человек слышит только сам себя. Я даже предлагал [Иванов, 2011] ввести коэффициент с названием Кгл– коэффициент глухоты (или глухаря). Для любой публикации
Кгл = Nсвоих : Nобщее,
где Nсвоих и Nобщее, соответственно, количество ссылок на самих себя (соавторов публикации) к общему количеству цитированных в данной публикации работ.
Мне кажется, что если при репрезентативной выборке (например, в геологии обычно начиная с 8 и более [в данном контексте – ссылок в публикации]) Кгл более 0,4 это уже плохо, ну и чем ближе к 1,0 тем, наверное, больше оснований начинать лечиться от мании величия.
И все же полностью, на 100% выкидывать самоцитирования, возможно, и неправильно – например, ученый работает в очень узкой области науки (но кто ж его знает, вдруг именно она-то в итоге и осчастливит многострадальное человечество?!). Поэтому предложение сводится к тому, чтобы учет самоцитирований отчасти все же оставить, но по «цене» на порядок более низкой.
В общем, переходя от рассуждений к конкретике, предлагаю минимизировать влияние обильных самоцитирований следующим образом:
Ck (индекс цитирования корректированный) × (110% – число самоцитирований по elibrary в %) : 100.
Т.е., например, ученый с Ck = 500 (т.е. имеющий 500 «корректированных цитирований») и числом самоцитирований 70% (оно есть в e-library) будет иметь чистый индекс цитирования (можно назвать его Сс от clear, чистый)
Сс = 500 × (110 – 70) : 100 = 500 × 0,4 = 200.
Итак, я утверждаю, что Сс, т.е. чистая общая сумма цитирований всех научных статей (т.е. деленная на кол-во соавторов и избавленная от влияния самоцитирований, как описано выше), есть гораздо более объективная характеристика научного вклада того или иного ученого. В той мере, как это пока можно объективно и беспристрастно (автоматизировано) учесть, причем чрезмерно не заморачиваясь. Так иногда высказываются предложения учитывать еще и рейтинг журналов, но я с этим не могу согласиться. Во-первых, в принципе значимость научного результата не зависит от места публикации. Во-вторых, количество ссылок этот рейтинг журналов итак учитывает – если статья опубликована в престижном журнале с высоким тиражом и рейтингом, значит, ее прочитают больше ученых, соответственно (если в статье есть смысл) на нее и будет больше ссылок. В-третьих, это реально головная боль, все эти индексы непрерывно отслеживать, что-то там умножать, интегрировать и пр.
В-четвертых (last but not the least), наиболее высокорейтинговые англоязычные журналы сплошь и рядом не публикуют статьи русских ученых, если в их коллективе нет иностранцев. Английский язык де плохой, еще какую-нибудь якобы причину сыщут. В результате отечественная наука переходит в подчиненное положение, а чисто наши достижения зачастую становятся некими “общими”. Есть на этот счет и удручающая статистика и примеры такие знают, я думаю, очень многие ученые. Чисто чтобы не быть голословным – приведу один из своих. Написали мы как-то с отцом мощную прорывную статью. Идея была его, я был помощником, переводчиком, «адвокатом дьявола» и пр. И послали в наиболее престижный журнал по теме. Вскоре приходит ответ от американца – статья, мол, неплохая, но, естественно, нуждается в доработке, а с таким американским (английским языком) мы ее принять все равно не сможем, я бы, дескать, мог его улучшить, но я лишь член редколлегии и рецензент, но вот если бы я был вашим соавтором, статья бы, конечно, вышла без проблем. Именно вот так. Видит белый господин, что туземцы с алмазом бегают, прямо грех не попробовать отобрать. Думаю, что если б такое письмо было написано, скажем немцу, вышел бы большой скандал (а может и не вышел бы, с учетом что и у фрау Меркель американцы телефон прослушивают), во всяком случае, такое письмо немцу вряд ли бы было написано. Некоторые в такой ситуации соглашаются (мне известно много подобных примеров), но мы статью сразу забрали, послали ее в другой менее рейтинговый, но тоже американский журнал, где она сразу была опубликована [Ivanov, Ivanov, 1993], без каких-либо изменений и/или нареканий на качество языка. Но ссылок на нее сейчас, увы, немного (10), т.е. примерно на порядок меньше, чем если бы публикация была бы сделана в первом журнале.
Еще один немаловажный момент, который необходимо учесть. Любой индекс цитирования, во-первых, есть величина сильно инерционная (поскольку ясно, что при прочих равных на только что вышедшую статью будет меньше ссылок, чем на опубликованную лет 5 назад), во-вторых, не учитывает тот факт, что если на статью нет или мало ссылок, то это еще не приговор. Не свидетельство её никчемности, ненужности и пр. «Позитивных причин нессылаемости» может быть достаточно много. Например, статья «слишком умная», или намного опередила своё время и соответственно её время еще придет. Или в статье рассматривается какой-то узкий научный вопрос, которым сейчас почти никто более не занимается. Да хоть бы и совсем никто – не всему же научному человечеству одни бозоны Хиггса изучать…, есть и менее популярные научные темы. Скажем изучение каких-нибудь ну совсем несъедобных мшанок моря Лаптевых. Опять же знать не можно – а вдруг именно в этих мшанках и содержится мощнейшее лекарство, допустим, от инсультов. Глядишь, и не хуже «бозонов» в итоге окажется. Короче говоря – если статья написана и опубликована в настолько открытой печати, что попала, например, в базу e-library – это уже должен быть какой то плюс ее автору. И используемый итоговый наукометрический коэффициент (назовем его – суммарный научный индекс Si, от scientific index) должен отличать, скажем, ученого, опубликовавшего за последние 5 лет 20 статей, на которые нет пока ссылок, от ученого, вообще ничего не опубликовавшего.
И обеспечить это проще простого:
Si = Сс + n,
где n – число публикаций данного ученого в базе elibrary.
Можно рассчитывать не только суммарный (совокупный за всё время работы ученого) Si, но и величину этого индекса для характеристики работы ученого за последние 5 или 10 лет (Si5 и Si10 соответственно).
Введение предложенных наукометрических коэффициентов для объективной оценки научного труда в России необходимо именно сейчас, в момент реорганизации науки и грядущих видимо неминуемых сокращений штатов. Прикидки затрат времени показывают, что примерно 7-8 рядовых сотрудников, скажем ФАНО, всего лишь за 1-1,5 месяца смогут рассчитать Si, а также Хк, Ck, Сс всех работающих в РАН. Можно и того проще – поручить институтам самим рассчитывать. Если же всё оставить «на усмотрение» чиновников, то сокращать будут, вероятнее всего, просто ученых, неугодных местному начальству, без какой-либо объективности, совершенно бюрократам не нужной. При этом “достижения” холуёв, естественно, объявят «результатами намного превосходящими мировой уровень..» и т.п. Бумага то она, как известно, всё терпит, особенно если пишут по ней организмы, пораженные ржавчиной коррупции.
Призываю коллег к обсуждению затронутых вопросов.
Всем удачи!
Кирилл Святославич Иванов,
доктор геол.-мин. наук
Литература
- Гельтман Д. Не Хиршем единым… ТрВ №111. 28 августа 2012 г.
- Дмитриев А.И. Интегральный наукометрический показатель. ТрВ. 06 июня 2014 г. Рубрика: Гайд-парк онлайн
- Иванов К.С. Коэффициенты соответствия занимаемой должности и «блата» — новые (альтернативные) наукометрические показатели для объективной оценки научного труда в России. ТрВ. 09 апреля 2014 г. Рубрика: Гайд-парк онлайн
- Иванов К.С. К истории изучения Платиноносного пояса Урала // Уральский геологический журнал. 2011, №2. С.51-57.
- Полянин А.Д., 2014. Недостатки индексов цитируемости и Хирша. Индексы максимальной цитируемости. http://eqworld.ipmnet.ru/ru/info/sci-edu/Polyanin_IndexH_2014.html
- Ivanov S.N., Ivanov K.S. Hydrodynamic Zoning of the Earth’s crust and its Significance /Journal of Geodynamics, 1993, vol. 17, N 4, p.155-180.
- Hirsch J.E. An index to quantify an individual’s scientific research output. Proc. Nat. Acad. Sci. // 2005. V. 102(46). P.16569–16572.
- Rousseau R., Garcia-Zorita C., Sanz-Casado E. The h-bubble //Journal of Informetrics. 2013. V.7. P. 294–300.
1 Индекс Хирша является количественной характеристикой продуктивности учёного (реже — группы учёных). Учёный с индексом h опубликовал h статей, на каждую из которых сослались как минимум h раз.
2 Близкое по смыслу предложение было высказано А.Д.Поляниным (2014), предложившим ввести «индекс максимальной цитируемости (f-индекс)», считаемый по 5 наиболее цитируемым работам ученого (суммируются ссылки на них с учетом соавторства). Но тут, во-первых, не понятно, почему берется именно 5 работ? А не все? И чем, например, хуже шестая? А, во вторых, получается явный крен в пользу обзорных, а также научно-популярных и тому подобных «вторичных» статей, нового научного знания, как правило, не несущих.
Легковесненько как-то, несерьезно.
«Во многих здоровых научных коллективах, как известно, обычно используется такой принцип…». А в других, что тоже известно — используют принцип совсем другой. И что? Может быть анализ какой-нибудь сделать, или хоть почитать чего-нибудь по теме?
Предлагать формально оценивать вклад каждого из двух соавторов — вообще бред.
Чем специально вычисляемый «Сс» лучше просто числа цитирований без учета самоцитирований?
«Вопрос – на каком таком основании второй хоть сколько-то (хоть на миллиметр!) “научнее” первого?» — может быть уважаемому автору почитать хоть Хирша того самого (2005) — там довольно подробно объяснено, почему именно «лучше».
И напоследок совершенно уже феерическая «мощная прорывная статья», которая за 27(!) лет набрала аж 10 (!) ссылок. Круто, что тут сказать.
В общем хорошо, что ФАНО и миннауки это открытое письмо читать не будут. И не надо.
Наконец-то хоть кто-то здравомыслящий!
Любая попытка придумать хитрый показатель, учитывающий различные факторы, плоха тем, что (1) неизбежно учитывает всё же не все существенные факторы, а (2) точные значения коэффициентов, входящих в предлагаемую формулу (а то и её структуру), невозможно обосновать и их предлагается выбрать от балды. Вред же от подобных предложений состоит в том, что у чиновников складывается ложное впечатление, что выбор правильной формулы, адекватно описывающей размер вклада научного сотрудника в науку на основании исключительно наукометрических показателей, есть задача осмысленная и имеющая решение.
С другой стороны, идея учитывать число соавторов совершенно разумная. Поэтому в списках who is who на сайте expertcorps.ru указывается не только число цитирований, набранное гражданином, но и число цитирований, поделенное на число соавторов. Но использовать эти и многие другие параметры всё же лучше не для прямой раздачи слонов, а как дополнительную информацию для эксперта или же для сравнения с разумными порогами, отсекающими очевидные недоразумения, чтобы «корифеи» с Хиршем равным двум не оказывались в числе экспертов ВАК и на должностях ведущих научных сотрудников.
Использование индекса Хирша наносит вред науке.
Подробнее:
Орлов А.И. Критерии выбора показателей эффективности научной деятельности // Контроллинг. – 2013. – №3(49). – С.72-78.
Орлов А.И. О показателях эффективности научной деятельности // Экономический анализ: теория и практика. – 2014. – № 7 (358). – С.21–29.
Заголовок статьи (Критерии выбора показателей эффективности научной деятельности) создаёт впечатление, что всё-таки можно выбрать осмысленные наукометрические показатели эффективности научной деятельности. Однако это заключение находится в противоречии с основным выводом этой же статьи: «наукометрические показатели, рассчитанные по числу публикаций и цитирований в научных журналах, могут играть лишь вспомогательную (справочную) роль».
Кстати, в таких случаях желательно давать гиперссылку на полный текст.
Использование всяких достаточно надуманных «индексов» не приведет к улучшению состояния российской науки. А на мой взгляд, это просто углубление той «ямы», в которую она попала.
Выход, по-моему, восстановление компетентного управления наукой. Только люди, занимающиеся наукой, могут оценивать ее состояние и перспективы различных ее направлений.
А разного рода чиновники могут управлять наукой только на основе выработки народохозяйственных, оборонных и прочих актуальных задач, решение которых возможно только на основе решения ряда научных проблем.
Такой способ управления наукой дал выдающиеся результаты в СССР. Примеры таких решений всем известны. Но этот способ, видимо, не очень приемлем для верхушки российского госуправления.
Статья с орфографическими ошибками в первом же абзаце и первый же комментарий с арифметической ошибкой наводят на мысли, что что-либо модифицировать уже поздно.
в то же время, негласное европейское требование к защите Ph.D. иметь хотя бы одну статью, где соискатель является первым автором, кажется мне очень разумным.
Насчет первого автора — у нас, например, никого не выделяют, просто все по алфавиту идут. Если по этим публикациям считать корректированный индекс, то один наш сотрудник получит очень большой показатель просто потому, что у него фамилия — на «А». Я вообще думаю, что по идее нужно вводить понятия «авторы» и «участники» работы. И учитывать их вклад по разному.
А у нас первым всегда стоит руководитель института или отдела.
Похожим образом откорректированный библиометрический показатель уже существуют и используется в базе данных ADS: http://adsabs.harvard.edu/physics_service.html
Он называется tori. Вот его описание: http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0046428
Если говорить совсем коротко, этот индекс исключает самоцитирования и при этом нормализует каждую публикацию по числу авторов и по общему числу ссылок в ней.
Кирилл, а как быть тогда вот с таким случаем.
Я беру аспиранта, первые года 2-3 вообщем, это я пишу, а его вписываю.
Разве нет? Иначе его вообще выгонят — никто не будет ждать, пока он созреет и выдаст свою статью. Вот так зреем в процессе роста. В принципе ничего, нормальные ребята потом получаются обычно. И схема эта уж как-то притерлась — работает.
Так вот, в вашей схеме получается, что я его должен вычеркнуть и писать в статью себя))) Это, конечно, правда, но тогда мы получим и другую «правду». Никакой аспирант не сможет сам ничего написать первые несколько лет. А ведь требования такие к нему есть…
Разумеется, если завтра «свиснут» и введут ваш коэффициент, никто из руководителей методику общения с аспирантами не поменяет. Мы же не самоубийцы. Но тогда получается, что именно лучшие, те кто воспитывает молодежь, будут менее результативными….
Вот такой вы предложили коэффициент…