В минувшие две недели российское научное сообщество активно обсуждало достоинства и недостатки «Карты российской науки». Впрочем, о достоинствах почти не говорили. Мы попросили ученых, участвовавших в тестировании «Карты», высказать свое мнение об этом продукте.
Ольга Москалева,
член рабочей группы, сформированной Минобрнауки для решения методологических вопросов проекта:
Информационная система «Карта российской науки» (www.mapofscience.ru), запущенная в опытную эксплуатацию 12 ноября 2013 года, вызвала большое количество негативных откликов, в основном, из-за отсутствия официальной информации о проекте со стороны Минобрнауки (см., например, [1]-[4]).
На прошлой неделе практически одновременно появились заявления по этому поводу от Совета ОНР [5] и от Комиссии общественного контроля за ходом и результатами реформ в сфере науки [6]. Начинаются они похоже, с перечисления того, что плохо в «Карте науки», что там неправильно по публикациям, количеству сотрудников в институтах, их должностям и т.д. Рекомендации на основе этих замечаний даются прямо противоположные. ОНР призывает «научных работников зарегистрироваться на сайте КРН, чтобы принять активное участие в тестировании проекта и в выработке предложений по его доработке». Комиссия же советует «воздержаться от обращений к системе «Карта российской науки» для внесения туда каких-либо изменений».
Так что же в такой ситуации делать научным сотрудникам, оказавшимся в ситуации прямо противоположных указаний? Как отмечалось в блогах, ученые — народ самостоятельный и сами решат, что им делать. Тогда для чего и для кого принимаются эти заявления? Где ставить запятую в отношении Карты науки — «казнить нельзя помиловать»?
Возникший ажиотаж во многом спровоцирован заявлениями Минобрнауки о том, что «Карта» практически готова и вот-вот будет использована для оценки научных организаций. Между тем в самом начале этого проекта «Карта» позиционировалась вовсе не как инструмент для оценки, а скорее, как инструмент в помощь самим ученым, снижающий временные затраты на заполнение заявок на гранты и дальнейших отчетов по ним. Предполагалось, что благодаря этой системе будет легче находить и подбирать экспертов по разнообразным областям знаний, в том числе и для проведения конкурсов грантов, формирования диссертационных советов и т.д.
Какова же история вопроса и что сейчас в действительности есть в «Карте российской науки»?
Создание этого проекта впервые было анонсировано летом 2012 года, вскоре после назначения Дмитрия Ливанова министром. Сначала ничего, кроме общей идеи, озвучено не было, и можно было предположить, что министерство собирается закупить уже готовые аналитические системы у Elsevier или Thomson Reuters. Это прежде всего линейка инструментов SciVal, осуществляющих весьма сложный анализ публикаций, представленных в базе данных Scopus на основе анализа социтирований. Она создана компанией Elsevier и широко используется во всем мире для оценки научной продуктивности организаций, стран и регионов. Совершенно другой подход (с использованием нормированных показателей цитирования, позволяющих сравнивать разные области знаний и публикации разных лет) реализован в InCites, разработанном компанией Thomson Reuters. Он использует базу Web of Science (WoS).
Краткое описание этих инструментов и их возможностей можно найти в [7] или на сайтах компаний-производителей. В SciVal сейчас есть уже построенные карты науки как для России в целом, так и для довольно большого количества российских университетов и научных институтов РАН и РАМН. В InCites также имеется много проработанных наборов данных для отдельных российских организаций и регулярно обновляются данные для России в целом.
Конечно, на основании данных WoS или Scopus трудно делать выводы о состоянии науки в России, поскольку большая часть научных публикаций российских ученых в этих базах не индексируется, в особенности по социально-гуманитарным областям. Однако Российский индекс научного цитирования, где достаточно полно представлены гуманитарии, в меньшей степени годится для оценки публикаций естественников.
Напрашивается мысль о сведении российских публикаций и публикаций в международных журналах в одну базу и их совместном анализе, однако эта весьма непростая задача. Кроме того, для оценки научной деятельности сведений лишь о публикациях в научных журналах явно мало — есть книги, патенты, выступления на конференциях, гранты и т.д. Именно такая амбициозная цель и ставилась министерством -свети в одну информационную систему все эти данные и проводить совместный анализ, параллельно выстроив сервисы для оформления заявок, отчетов и подбора экспертов.
После консультаций Минобрнауки с представителями научных организаций и университетов, в которых имеются информационные системы сопровождения НИР, было сформулировано техническое задание на создание «Карты российской науки» и объявлен конкурс на заключение контракта стоимостью 90 млн руб., который выиграла консалтинговая компания PricewaterhouseCoopers.
В марте 2013 года основные детали концепции, а также некоторые результаты обсуждения на специально созданной дискуссионной площадке были представлены на заседании рабочей группы. На совещании состоялась презентация проекта PricewaterhouseCoopers, после чего членам рабочей группы и членам экспертных групп по областям наук была предоставлена возможность доступа к прототипу рабочего интерфейса «Карты науки» для высказывания замечаний и предложений. В июне начался второй этап тестирования «Карты науки», уже с частично загруженными данными из WoS и РИНЦ.
В настоящее время началась опытная эксплуатация промышленной версии «Карты российской науки», в которой каждый ученый может получить индивидуальные регистрационные данные и проводить проверку и корректировку данных о своих публикациях, грантах, патентах.
И вот тут, на фоне напряженности, связанной с реорганизацией академий наук, и нача лись все описанные в самом начале события.
Чем же конкретно вызвано такое резко отрицательное отношение большинства к еще недоделанному продукту? Основные претензии следующие:
- Несовпадение сведений о количестве публикаций ученого в WoS или РИНЦ с тем, что видно в «Карте науки», а также неверная «привязка» публикаций к ученым
- Неверные сведения об организациях в целом — количество сотрудников, количество академиков, докторов и т.д.
- Появление непрофильных научных направлений в сведениях об институтах.
Часто проводимое в блогах сравнение «Карты науки» с WoS и Scopus некорректно в принципе, поскольку этот проект не является индексом цитирования, а в Google Scholar нет поиска по организациям.
Все эти ошибки совершенно неизбежны и легко объяснимы. В «Карту науки» загружены сведения из WoS, отобранные по признаку указания аффилиации с Россией и российскими организациями, а не по фамилиям ученых Поэтому для начала каждому ученому, сверяющему свои данные в WoS и в «Карте науки» необходимо вспомнить или проверить, какая аффилиация указана в отсутствующих в «Кар те науки» статьях.
Скорее всего окажется, что указана зарубежная организация или аффилиация совсем отсутствует. Такие публикации не могли попасть в загруженный массив публикаций в принципе. Если публикации из WoS приписаны другому ученому или ученый «размножился» на несколько разных профилей, то хорошо бы задать себе вопрос: «А что я лично сделал для того, чтобы все мои публикации в WoS были собраны в один профиль, не перепутаны с публикациями однофамильцев?» Ведь для этого уже давно создана система регистрации авторов ReseracherlD, очень помогающая избегать подобных ошибок в базе.
Тем не менее, на сегодняшний день в ResearcherlD зарегистрировано только 11 472 автора из России при общем количестве ученых более 300 тыс. (а в «Карте» указано даже более 600 тыс., но сюда входят студенты, аспиранты и иностранные соавторы). Для сравнения: в Италии зарегистрировано 11 245 ученых в Германии — 11 733, в Великобритании — больше 20 тыс., а в Китае — больше 36 тыс.
Что касается неправильной приписки статей организациям, то попытка найти публикации организации в WoS зачастую оказываются почти неразрешимой задачей из-за излишне творческого подхода как к указанию аффилиации, так и из-за обилия вариантов названий на английском языке. Это усугубляется еще и постоянными реорганизациями, слияниями и поглощениями, затрудняющими определение, к какой организации может относиться та или иная публикация.
Сейчас в WoS создано довольно большое количество объединенных профилей организаций (Organization-Enhanced), сливающих в одну запись все названия организации. Только у ФИАНа, обиженного 1 статьей по овощеводству, в объединенном профиле 72 разных названия, причем нет никакой гарантии, что это полный список. У Курчатовского института такого объединенного профиля вообще не существует, а СПбГМУ им. Павлова, не имеющий подписки на Web of Science, вовсе оказался включенным в профиль Института физиологии им. Павлова РАН…
Совершенно аналогичная ситуация с данными в РИНЦ: в системе Science Index — автор, предназначенной для того же в отношении РИНЦ, что и ResearcherlD по отношению к Web of Science, на сегодня зарегистрировано 180 тыс. ученых, однако большая часть из них активно занялась проверкой своих публикаций и цитирований только в 2013 году В аналогичной системе для организаций зарегистрировано 380 организаций, а автоматическая привязка публикаций к ученым и организациям, даже без отягощающего фактора неправильного перевода или транслитерации, тоже не всегда возможна и требует проверки со стороны организаций.
По поводу несовпадения данных «Карты науки» и количества публикаций в РИНЦ есть еще один фактор, который практически никем не принимается во внимание — в РИНЦ загружаются в том числе данные из Scopus, но для «Карты науки» представлялись только публикации в русских научных журналах.
Данные о должностях, званиях и принадлежности к конкретной организации в «Карте науки» берутся исключительно из профилей авторов, зарегистрированных в системе Science Index. Регистрация в этой системе осуществляется на базе имеющейся регистрации пользователя РИНЦ. Так что если ученый начал пользоваться РИНЦ с 2003 года и указал свою должность на тот момент и при заполнении дополнительных сведений при получении SPIN-кода не обновил данные об изменившихся степенях, званиях и должностях, то сегодняшний член-корреспондент по имеющимся сведениям «Карты науки» вполне может считаться доцентом и кандидатом наук.
Выборочное знакомство с данными «Карты науки» показывает, что представленные в ней сведения по организациям, которые осуществляют сверку состава профиля организации в Web of Science и зарегистрированы в системе Science Index — организация, совпадают в достаточно хорошей степени, а по организациям, не имеющим профиля в Organization-enhanced в Web of Science, наблюдается довольно большое количество ошибок. Эти ошибки ни разработчиками, ни министерством в принципе не могут быть полностью исправлены — для этого необходимо участие самих ученых и представителей организаций.
Никто из критиков не обратил внимание на гораздо более существенные моменты — отсутствие совместного анализа данных из РИНЦ и Web of Science (для чего и затевалась вся эта работа), а также полную неясность с дальнейшей судьбой этого проекта. Непонятно, как и на основании чего будут обновляться данные, с какой частотой. Нужно ли будет регулярное вмешательство ученых для проверки данных? Или это можно будет организовать в идеале путем синхронизации сведений в профилях авторов Science Index и ResearcherlD или ORCID, поля для внесения которых предусмотрены при регистрации пользователя в «Карте науки»?
То, что сделано, технически работает, графики строятся, имеющиеся данные в пределах реализованных на сегодня возможностей анализируются и даже в этом состоянии функции сервисов и единого хранилища данных о публикациях, патентах, грантах и др. будут очень полезны. При условии выверки и регулярного обновления данных система может быть универсальным поставщиком данных для различных отчетов, однако для аналитических функций возможности пока явно недостаточны.
Так и что же сейчас делать с «Картой науки» — исправлять или игнорировать? Какой из рекомендаций следовать — ОНР или РасКома? Имеющиеся ошибки данных неизбежны, исправлять их надо, без участия ученых и организаций не обойтись. Однако всё это имеет смысл только в случае четкого ответа на вопросы про дальнейшее обновление данных и дальнейшую доработку аналитических возможностей «Карты науки».
Андрей Цыганов, член ОНР:
На мой взгляд, список основных претензий к проекту «Карта российской науки» говорит именно об успехе данного проекта на настоящем этапе. Действительно, в этом проекте можно найти:
- разные сведения о количестве публикаций и цитирований ученого в WoS, РИНЦ и «Карте науки»;
- учет русской и переводной версии статей в личной карточке ученого;
- неверные сведения об организациях в целом, например, количество и состав сотрудников;
- список всех, в том числе и непрофильных, научных направлений в сведениях об институтах и т.д. и т.п.
Всё это следствие того, что разработчики ставят перед собой цель автоматического сбора информации и размещения всех собранных данных в одном месте. Они, не являясь экспертами, не берут на себя ответственности по исправлению, обработке и интерпретации информации, полученной официально из трех баз данных: РИНЦ, Web of Science и, как планируется, Scopus. Именно то, что разработчики так бережно относятся к каждой крупице информации и просто собирают всё в одном месте, и является главным достижением этого проекта в настоящее время.
Основной вопрос в том, что именно сообщество ученых доверяет делать, условно говоря, «чиновникам» и что не доверяет им делать, т.е. что ученые должны делать только сами, не доверяя никому другому.
Если мы говорим, что «чиновники» должны самостоятельно исправить сведения о наших публикациях, о наших цитированиях, это означает, что «чиновники» имеют право это делать, не опираясь ни на мнение самих ученых, ни на мнение институтов, ни на мнение экспертов. Нужно ли давать «чиновникам» такое право?
Например, если мы требуем от «чиновников» убрать дубликаты, т.е. даем право «чиновникам» самим решать какая версия статьи, русская и английская, должны быть на сайте, значит, мы доверяем «чиновнику» самому решать, какая публикация важна, а какая не важна, без учета мнения и автора публикации, и представителей института, где работа была выполнена.
Если мы требуем убрать из списка авторов публикаций института «лишних» авторов, это значит, что мы даем «чиновникам», а не официальным представителям институтов, право самим решать, кто работал, кто приглашался поработать временно, а кто вообще не работал в институте. Но тогда не обессудьте, если «чиновник» мгновенно распространит это свое право и на будущее время и будет уже сам решать, кому работать в этом институте, а кому нет.
Аналогично, если мы не хотим, чтобы «чиновники» имели право указывать институтам, какими научными направлениями заниматься, то нельзя им давать право решать, какими научными направлениями занимался институт за прошлые пять лет. Пусть автоматически вносят все направления, которые были указаны в публикациях авторов из данного института, в алфавитном порядке и не более того! Даже расставлять эти направления по приоритетам, а не по алфавиту должны иметь право только представители института, а не «чиновники» или анонимные эксперты.
Так что основной вопрос к «Карте науки» не в «кривых» данных, а в том, кто будет обрабатывать, обновлять и интерпретировать эти данные. На мой взгляд, нельзя предоставлять «чиновникам» лишние права. Обработка, анализ и интерпретация открытых данных по публикациям — это слишком опасный инструмент, чтобы добровольно передавать его в руки неспециалистов.
И дело тут не в «Карте науки», ну, будут вместо нее нас «оценивать» по Web of Science, по РИНЦ, по Scopus или по всем профессиональным базам данных вместе взятым. Дело не в данных, а в правилах обработки и оценки информации по публикациям и, главное, в обосновании правомерности применения тех или иных оценок в различных областях знаний.
Поэтому сообщество ученых, не отвлекаясь на мелочи, должно в первую очередь разработать строгие, детальные, обоснованные не только ссылками на великое прошлое и понятные для всего общества рекомендации по методике, обработке и интерпретации данных по публикациям в различных областях знаний, пока это не сделали другие. Уже нет времени на борьбу с ветряными мельницами, пришла пора ответить на всё тот же вечный вопрос: кто и на что имеет право, и чем за эти права придется заплатить?
Алексей Иванов, член ОНР:
У меня основная претензия не к техническим недостаткам «Карты науки», которых на данный момент огромное множество, а к более принципиальной вещи: вопрос в том, кто должен иметь право и возможность корректировать исходные данные. Совершенно правильно отмечено, что это могут делать только сами институты и сами ученые. В действительности, впервые термин «Карта науки» прозвучал в одном из наказов Общества научных работников (ОНР) к тогда только что назначенному министру Ливанову. В этом наказе ОНР отмечалось, что такая карта может быть построена только снизу, а для того, чтобы стимулировать научных работников заполнять на себя данные, предлагалось объявить конкурс персональных стипендий для ученых, выдаваемых автоматически при превышении некоторого порогового значения, которое априорно не было известно, но оценивалось в 5-7 публикаций за три года с таким учетом, чтобы поощрены были порядка 10 тыс. человек (http://onr-russia.ru/content/гранты-стипендии-03072012). В таком случае возникала ситуация «win-win». Ученых одарили пряником, а взамен Минобрнауки получило бы выверенную, пусть может быть и не до конца полную, базу данных по публикациям с точной привязкой до человека. К сожалению, министерство пошло другим путем. Оно стало делать «Карту науки» сверху. В итоге мы пришли к тому, от чего стартовали, — «Карту науки» можно заполнять только снизу. Однако уже никаких пряников ученым не предвидится, а вот в то, что будут бить кнутом, верится сразу и бесповоротно.
В этой ситуации я лично оказываюсь в ситуации отчетливого когнитивного диссонанса. С одной стороны, я всегда говорил, что реформы должны начинаться с оценки реального положения дел, и «Карта науки» — шаг именно в этом направлении. Соответственно, как член Совета ОНР я разделяю мысль, что данные в «Карте науки» нужно приводить в соответствие с действительностью, а никто, кроме самих научных работников, это сделать не может. С другой стороны, реформа уже идет полным ходом и жизненный опыт показывает, что властям наплевать на реальное положение дел. Им главное соблюсти некоторую формальность для внешней публики. Карта есть? Есть. Эксперты обсуждали? Обсуждали. Ученые вносили исправления? Вносили. А уж каково качество самой «Карты науки» — дело десятое. Поэтому я отлично понимаю рекомендацию Комиссии общественного контроля не иметь ничего общего с «Картой науки» до тех пор, пока не будет ясно, как ее планируется использовать.
- http://ria.ru/science/20131126/979801742.html
- http://www.gazeta.ru/science/2013/11/27_a_5771569.shtml
- http://polit.ru/news/2013/11/26/ps_map/
- http://tvkultura.ru/article/show/article_id/103790
- http://onr-russia.ru/content/SciMap_boycott
- http://rascommission.ru/index.php/documents/statements/53-karta-ivana-susanina
- http://www.gazeta.ru/science/2013/01/13_a_4922177.shtml
Более менее адекватная база данных.
Что-то там она может и не учитывает, но соотношение ожидаемых успехов для разных людей вполне соответствует интуитивным представлениям о каждом..
Думаю, что так сравнивать можно. По крайней мере в области естественно-научных дисциплин
Каких-то элементарных вещей нет. Невозможно увидеть штатную численность каждого института и его структуру (деление на отделы/лаборатории/сектора), и, соответственно, получит данные по различным структурным единицам. Особенно это нелепо в случае университетов, объединяющих десятки различных факультетов, но и для институтов было бы полезно иметь возможность сравнивать между собой различные лаборатории и т.д.. А штатная численность нужна, чтобы нормировать результаты не на число тех, кто печатается, а на общее число научных сотрудников.
По большей части претензии надо предъявлять редакциям журналов.
Только от журнала зависит как авторы оформляют статьи.
Достаточно было бы РИНЦ, обошлись бы без этой Карты.
В общем-то, получается так: автор сам по себе, НИР — сама по себе, Работодатель — сам по себе. А потом не можем собрать все в кучу.
Без Карты можно было бы обойтись, если бы в России была традиция выкладывания на институтских сайтах списка сотрудников, с указанием публикаций для каждого лично, со всеми библиографическими данными. Но, к сожалению, многие пытаются ловить рыбку в мутной воде, поэтому не дают никакой информации или отделываются отписками типа: «автор более 60 научных публикаций». Что это за работы? Где и когда они опубликованы? В соавторстве с кем? Является ли человек первым автором, или стоит в списке на 4м месте? Где бы мне эту статью быстренько достать?… Нет и намёка на прозрачность, поэтому России опять придётся идти «своим путём» и делать Карту.
чем она лучше WoS, из которой берет данные?
В теории — тем, что должна объединять данные из WoS, РИНЦ, а далее и Scopus и позволять увидеть их сразу все в удобном виде. На практике до этого ещё далеко.
Тем, что там есть еще и РИНЦ ;) А еще там только русскоязычные авторы и организации — искать проще) К тому же, WoS — штука вроде бы платная, а карта науки — бесплатная.
«чем она лучше WoS, из которой берет данные?»
Тем, что для ее формирования удалось устроить контракт на 90 млн руб.
юридический статус этой тн карты науки не ясен если какой-то клерк из мона что-то там напортачит где искать правду и как проверить в итоге ппс и нс превращаются в бесправных рабов
Карта- серьезное информационное дело (или как модно говорить- проект).
За ее создание, как правильно отметил А. Иванов, надо было заплатить каждому институту, но и обязать каждый институт сделать свою часть карты.
Кто привлекал институты?.
Кто в наших институтах несет ответственность за достоверность данных??
Пока никто!
Значит, сейчас, уже задним числом,
директорам надо учредить ответственное лицо по каждому институту.
И пусть оно отвечает за свою часть карты.
А как институты организуют работу в личном составе- дело техники.
Но уже будет с кого спросить!!!!
Какие смелые и неожиданные предложения! А ничего, что в рамках проекта всё это уже предусмотрено? Правда не прямо сейчас, а через некоторое время, когда будет закончена загрузка данных в автоматическом режиме (в том числе и со Scopus, что пока даже не начиналось).
В автоматическом режиме будут проблемы. Об этом говорит опыт Штерновского Корпуса Экспертов. Проблема однофамильцев трудно решаемая. Не всегда удается связать автора с местом работы.
В МГУ работает система ИСТИНА (http://istina.msu.ru). Основана на заявительном принципе. Те каждый сам вносит свои рабаты и отвечает за достоверность информации. На мой взгляд сделано добротно.
Именно потому, что будут проблемы, и предусмотрена проектом ручная правка — вначале представителями институтов, а потом отдельными гражданами. Правда пока непонятно, что именно будет разрешено править.
Насколько я помню основную идею, предполагалось три прохода: автозаполнение с баз данных, ручная правка и верификация ручной правкию
Не получится. Именно те люди, по которым общедоступная база может ударить больше всего, менее всего склонны предоставлять добротную информацию и нести за это ответственность. Это и с диссертациями точно так же и во всех иных областях. Нельзя халтурщиков отлавливать по заявительному принципу.
Применённая методика выводит за рамки анализа тех, у кого вообще ни одной публикации нет. Чтобы сравнивать институты всерьёз, различные интегралные показатели должны нормироваться на число ставок научных сотрудников, а не на число аффилированных с институтом граждан. Последнее зависит от того, сколько в нём таких, кто совсем не публикуется, сколько работающих на долю ставки, и сколь велика текучка кадров. Удивительно, что разработчики (или заказчики?) таких элементарных вещей не понимают.
Чтобы сравнивать институты всерьез существует список критериев из многих десятков пунктов. Этот список тут уже приводился осенью. А карта — вспомогательный информационный ресурс.
Вроде бы число показателей усохло до двадцати пяти:
http://www.strf.ru/material.aspx?CatalogId=221&d_no=72319#.UqVuqNZ0WML
И я вполне готов поверить, что их все придётся подсчитывать заново, а «карта науки» окажется в этом смысле совершенно бесполезна — это вполне в стиле МОН.
Судя по этой ссылке, число цитирований из списка вылетело, а учитываться будет
«совокупный импакт-фактор журналов, в которых опубликованы статьи организации за определённый временной период. Он будет вычисляться по значениям импакт-факторов Web of Science».
Спасибо за инфу. Это я как-то проглядел.
Про 25 показателей оказалось дезинформацией. В списке из 25 пунктов есть ещё до хрена подпунктов.
Примерно тоже произошло в МГУ. Ректор обеспокоен низким рейтингом МГУ. Причем число статей в МГУ более-мение в норме и имеет нормальную тенденцию к росту, а вот с цитируемостью (по словам ректора и на самом деле) — дело дрянь. Один раз (в 2011) выплатили премию за цитируемость. С тех пор все надбавки только за статьи с высоким импакт фактором. Я так понял что идея премирования за цитируемость не находит поддержки.
Оно понятно, что кому-то выгодней учитывать цитируемость, а кому-то — импакт-факторы, и последние могли победить. Но если в списке из целых 25 показателей не найдётся места для цитируемости, зато будет присутствовать число заходов на сайт — это полный абсурд.
Позволю себе смягчить Ваши условия. Если не будет цитируемости, то это будет полный абсурд. Но возможно и не будет, ведь мы живем в стране абсурда.
Штерновское Who-is-Who для некоторых моих коллег выдавал результат в несколько раз больший чем на самом деле. Однофамилиц из США публиковался в соавтотстве с другим ученым из MГУ. Имя, место работы, тематика совпадали — работа вносилась в список. Хотя в Who-is-Who очень добротная ручная проверка. Кто может отвечать за справедливость представленных данных ? — только сам ученый. Конечно институт может обязать всех ознакомиться и под расписку подтвердить что данные внесены правильно.
Я просто сравниваю 2 работающие системы с которыми у меня был опыт общения. ИСТИНА проще и надежнее.
1) ну лучше она тем, что она российская))
Как бы не смешно это звучало, в этом есть правда.
Было бы нелепо использовать зарубежную карту для оценки в стране научных сотрудников. Они бы первые начали бы вопить, что чужие карты им не указ.
Вероятно, и министерство не вправе кадровые решения принимать на основании
случайных карт в интернете. Вот поэтому приходится платить…
2) она выполняет основную задачу верно и правильно — расставляет на места крикунов, имитаторов науки, реальных научных сотрудников..не позволяет заменить работу ее имитацией и горлопанством на научных советах.
3) клерк из мона, конечно же портачит..но его достать и настучать ему по башке легче, чем такого же клерка из WoS. А лично из своих данных вижу, что их клерки ничуть не лучше наших. Только недоступнее…и от этого кажутся святее))
4) селекция по институтам и направлениям не должна заботить простых научных сотрудников. Если вы научный сотрудник, если вы хотите адекватной оценки вашего личного труда…карта это делает.
А толстожопым директорам, ратующим за направления и прочую хрень, действительно она поперек горла — они там в самом низу по показателям.
5) карта не лишена наукометрических казусов, как и любая наукометрия. Пытаться руководствоваться только ей — значит заменить цветного многообразного человека и всю его деятельность одним числом. Т.е. вместо фамилии Иванов написать просто цифру 783…))
Все это банально и хорошо известно, что так нельзя.
Но она выполняет свою главную задачу — является инструментом против лжецов, хамов, крикунов от науки, которые не производят научной продукции, а заменяют ее связями, знакомствами, подхалимажем и т.п. Такие люди сейчас наверху и управляют всем. Так почему бы не поднести к их морде это зеркальце?)))) Причем русского происхождения зеркальце..
Респект. Полностью согласен.
Вы вначале посмотрите сколько публикаций у тех, кто сейчас наверху и всем управляет (Фортов, Ковальчук, Месяц, Садовничий, АР Хохлов), а уж только потом, если у Вас больше (в чём я сильно сомневаюсь), прыгайте от радости и пугайте их своим зеркалом.
У Садовничего почти ничего. У Ковальчука весьма скромно. Работа начальников должна оцениваться по работе коллективов. Если сравнивать личные показатели со средними по МГУ/КИ/ФИАН то несложно выглядеть достойно.
Садовничий Виктор Антонович: 27 публикаций в WoS плюс 63 в РИНЦ. Для Вас это почти ничего? Ковальчук Михаил Валентинович: 46 в WoS плюс 50 в РИНЦ. Вы полагаете у Романа (который размечтался, что карта науки послужит разоблачающим зеркалом для «толстожопых директоров») больше?
27 публикаций в WOS за 50 лет в работы в науке ВА Садовничего это действительно очень мало. (Про РИНЦ ничего не знаю и сомневаюсь что можно складывать.) Если сравнивать за последнии 3 года то тут почти каждый может выдать больше. У Ковальчука тоже не бог весть что — средний членкоровкий уровень.
Но я не пойму зачем кого-то с ними сравнивать. Они руководители больших подразделений. Их работа должна оцениваться по числу публикаций их сотрудников. А тут планка оказывается не столь высокой.
Что существенно, это наличие официальной оценки данной через голову непосредственного начальства.
Да не за 50 лет столько работ, а за 2007-2012 гг., при этом данные за 2007 «картографы» называют неполными.
Вы уверены, что ректор МГУ подрабатывает в Башкирском государственном университете? Занимается Биомидецинской инженерией и Востоковедением?
Скорее всего это несколько совершенно разных людей.
http://mapofscience.ru/scientist/796793
Да и реальных статей, которые проходили рецензирование, в этом списке почти нет.
Перекрёстное опыление аффиляциями от соавторов — стандартный глюк карты науки.
Можно убедиться, что соавторы соответствующих работ в ответ получили аффиляцию МГУ. Экзотика типа «зоология» и «наука о растениях» пришли из некролога, который Садовничий вполне мог подписать как ректор. «Востоковедение» — следствие выступления на МГУшной конференции. Так что скорей всего, это всё один и тот же человек.
А про то, что будут учитываться лишь отрецензированные статьи, пока нигде не объявлялось. Так что с формальными показателями у Садовничего всё гораздо лучше, чем у большинства из нас.
Человек, чьи данные относительно верно отображены в КРН, может считать её казусы незначительными.
Я же могу сказать от имени научного сотрудника с российской аффилляцией, которого вообще забыли впрямую упомянуть, несмотря на наличие публикаций в период 2007-2012. Что сказать, чтобы обойтись без грубых слов? Что такие вещи сначала доводятся до ума внутри системы, потом предоставляются для исправлений (заверенных), и лишь в этом виде используются?
Между тем, судя по словам ответственных за базу, только к весне (включив Скопус) КРН могут предоставить для правки уполномоченным представителям институтов, плюс время на утверждение изменений… а в июне предстоит оценка Институтов.
Ну и меня там тоже нет. Стоит-ли переживать? Фантастика что почти все введены правльно. Это не простая задача. Штерновский Who-is-Who не смог решить проблему однофамльцев на пограмном уровне и использует ручную обработку.
А что непростого в автоматизированном переносе данных из WoS c ошибками и пропусками? Проблемы с однофамильцами ведь остались, причём слипшимися оказались даже однофамильцы с разной тематикой.
Утверждение, что «корпус экспертов» не смог решить проблему однофамильцев на программном уровне не вполне корректно учитывая, что при составлении списков who-is-who и сам поиск ведётся вручную, используя стандартные опции предоставляемые WoS всем пользователям.
В выходном файле WoS иногда авторы и институты представлены отдельно,
а иногда в записи «Addresses» указано поименно кто откуда. Возможно статьи последних годов представлены в форме которая позволяет привязать автора к месту работы. Поэтому Карта справилась с однофамильцами лучше чем Who-is-Who.
В каких-то случаях лучше (когда у одного из них нет российских аффиляций). Но когда оба однофамильца работают в России, Карта вместо того, чтобы разделить их по местам работы, считает, что это один и тот же человек, работающий одновременно в разных организациях совершенно разного профиля.
С помощью только данных по публикациям проблему однофамильцев решить нельзя. В любом случае нужны подтверждения от автора что представленные работы написаны им. В Who-is-Who те-же проблемы с однофамильцами несмотря на ручную обработку каждого автора. А из-за Cited Reference Search там вообще все непонятно. Просто на них никто бочку не катит с таким усердием.
В принципе работа по карте сделана добротно. Да нужна еще информация от институтов и подтверждения ученых. Сделают.
Интересно что Who-is-Who не были согласны представлять список статей по каждому автору что-бы избежать ленцизионных конфликтов с WoS. В Карте эта проблема решена. Частично это ответ на вопрос «Где деньги, Зин?».
Для этой карты не хватает эталона, репера..У Петра Петровича 18, а у Иван Ивановича 10…Ну и что это значит? Как определить, кого из них гнать в шею?
Нужна таблица с нормативами по направлениям и разделам науки.
В ней должны быть две планки: 1) международная средняя норма для этого направления, 2) российское среднее по этому направлению на данный момент, которое хотят улучшать.
И вот уменьшение этой щели между двумя планками и должно быть задачей мон и всех нас.
А содержание, с Вашей точки зрения, вообще значения не имеет?
Вот тут не соглашусь. Карта — база данных. Не более. Не надо придавать ей какой-то другой статус. Для того, чтобы выносить суждения или принимать решения, с ДАННЫМИ, которые дает карта, должен работать эксперт. Любые чисто формальные «планки» будут плохо работать и приносить больше вреда, чем пользы.
Прямо-таки любые-любые?
В мире придумана куча наукометрических индексов, помимо валового количества статей и индекса Хирша.
Почему _принципиально_ невозможно создать правила вывода продуктивности ученого? На мой взгляд, SJR и SNIP — вполне годные мерки. Такие бы штуки сделать по базе РИНЦ, да еще отдельную линейку по объему хоздоговоров (в рублях). Тот, кто «вверху» хотя бы по одному параметру — хороший, годный. Кто внизу по _всем_ линейкам одновременно — тот гарантированный тунеядец.
Не?
Создание адекватного формального показателя продуктивности работы учёного в принципе невозможно, потому что наукометрические показатели не учитывают множество неконтролируемых факторов (типа модности конкретной узкой тематики), а так же потому, что их можно ввести очень много разных (вплоть до подсчёта числа формул в статье), и для каждого найдётся кто-то, кому это выгодно, и кто-то, кто на этом проигрывает.
SJR и SNIP — индикаторы, созданные для сравнения журналов, а не отдельных граждан. Можно предполагать, что при усреднении по большому числу статей выявляются общие тенденции, а эффект от многочисленных неконтролируемых факторов, влияющих на наукометрические показатели конкретного человека, также высредняется. Тем не менее создатель обоих этих показателей (а он у них один и тот же — SCImago) полагает, что даже для журналов создание одного универсального показателя невозможно, из-за чего, собственно, и предложил два разных.
Я с большим уважением отношусь к наукометрическим индексам. И пользуюсь ими, когда выступаю в качестве эксперта. Особенно в случаях больших выборок. В этом случае у эксперта просто нет физической возможности копаться в каждой статье.
Но в моем понимании роль индексов — как роль анализов в медицине. Они необходимы, чтобы поставить диагноз. Но диагноз должен ставить врач, то есть эксперт. Который разбирается в том, как получены индексы, что они означают, где и почему они могут барахлить. Для каких случаев какие именно анализы необходимы. Эксперт, работая с индексами и другими данными, действительно может дать адекватную оценку.
Трудно не согласится.тНаукометрия вещь, наверное, полезная, но завысить наукометрические показатели в общем то не сложно…
«Вот тут не соглашусь. Карта — база данных. Не более.»
Здесь обсуждается ситуация с наукой в России. Карта же, да, не более, чем абстракция, согласен.
карта-очень хорошее начинание. сразу видно кто чего стоит. еще бы на выбор автора пару полнотекстовых статей, чтобы их могли читать в свободном доступе.и возможность их комментировать.
Статьи на карту загружать нельзя, так как авторские права частично принадлежат издательствам. Но зато можно сделать линк на саму статью в elibrary, на сайт издательства, или на препринт. По поводу комментариев к статье: во всех нормальных журналах такая функция и так есть. Просто пишите «comment on the paper by…»
административный ресурс Ковальчуков, Фортовых и иже с ними не идет ни в какое сравнение с научным сотрудником, который делает все сам, своими руками..
Поэтому за свои высокие индексы им должно быть скорее стыдно, чем почетно..ибо они просто украдены, как правило..у подчиненных рядовых сотрудников.
Или обменяны на скромные деньги, которые выдают ковальчуки тем, кто вынужден делиться с ними публикациями. Или скажете, что Ковальчук по вечерам одевает халат, берет паяльник? Или что-то там пишет за нас такое, объясняя нам нерадивым, как устроена природа? Да просто сидит и употребляет все сделанное коллективами людей.
Рабовладельческий строй…, он и есть во всем государстве снизу доверху..и в науке тоже..Карта нужна для того, чтобы среди обычных рядовых сотрудников понимать, кто есть кто..
Если Вы всё-таки знаете про существование административного ресурса, то в чём был смысл Ваших радостных заклинаний про «зеркало», с помощью которого можно будет укоротить «лжецов, хамов, крикунов от науки … кто наверху и кто всем управляет»? Вот нас с Вами действительно могут сравнить и кого-то из нас выкинуть, а начальство останется.
почему -то любое начинание, особенно если в него вложены силы, деньги и время, всегда находит своего «Сергея», который тут же задает вопросы совсем в другой плоскости, не имеющие отношения к делу..»Содержание вас не интересует»)))))
Ну давайте тормозить, не давать, чтоб никакой оценки не было никогда, чтобы учету не поддавалось ничто! При этом легко оставаться великим ученым — все в тени, ничего анализировать нельзя. Ато придет «Сергей» и поинтересуется содержанием..
А лично меня содержание чужих статей НЕ ИНТЕРЕСУЕТ ВОВСЕ!
Тут куда не плюнь Эйнштейны сидят с офигительным содержанием, изложенным в одной заметке за 10 лет в сельском вузовском сборнике..и кряхтят про содержание свое выдающееся..которое по их мнению учету не подлежит и вообще, заменяет 100 статей в Nature
Экак Вас заколбасило от простенького вопроса. Считаете, что Вас правильно оценивать лишь по числу статей, а внутрь лучше не заглядывать? А у меня вот нет возражений ни против того, что мои статьи пересчитали, ни против того, чтобы эксперт взглянул на то, где они напечатаны и не являются ли они полным фуфлом.
И если мне показалось абсурдным Ваше предложение устанавливать планки по числу статей, это вовсе не повод обвинять меня в агитации за то «чтоб никакой оценки не было никогда, чтобы учету не поддавалось ничто»