Osvita.ua Вища освіта Наукометричні показники – запорука «національності» університету
Наукометричні показники – запорука «національності» університету

В Україні статус національного мають понад 50% закладів вищої освіти - 118

Наукометричні показники – запорука «національності» університету

У нас в країні статус національного мають 118 закладів вищої освіти (більше 50%).

Що таке «національний» ЗВО?

Згідно з Законом України «Про вищу освіту»,університету, академії, інституту незалежно від форми власності може бути надано статус національного (стаття 29). «Встановлення відповідності діяльності національного закладу вищої освіти визначеним критеріям для підтвердження чи позбавлення його такого статусу здійснюється раз на сім років Національним агентством із забезпечення якості вищої освіти».

У нього пріоритетне перед іншими ЗВО право на отримання бюджетних коштів на науку, право на свої норми часу навчальної роботи для викладачів, на застосування власних освітніх програм тощо.

Критерії

Те, яким критеріям повинен відповідати ЗВО для того, щоб бути національним, визначено постановою КМУ №912 від 22 листопада 2017 року.

Критерії порівняльні і серед них є так звані наукометричні, а саме:

  • Показник 8: середнє значення показників індексів Гірша науково-педагогічних та наукових працівників (НПНП) у наукометричних базах Scopus, Web of Science, інших наукометричних базах, визнаних МОН, приведене до кількості НПНП закладу;
  • Показник 9: кількість НПНП, які мають не менше п’яти публікацій у періодичних виданнях, включених до наукометричної бази Scopus або Web of Science, інших наукометричних баз, визнаних МОН, приведена до 100 НПНП, які працюють у ЗВО;
  • Показник 10: кількість наукових журналів, які входять з ненульовим коефіцієнтом впливовості до наукометричних баз Scopus, Web of Science, інших наукометричних баз, визнаних МОН, що видаються ЗВО, приведена до кількості спеціальностей, з яких здійснюється підготовка здобувачів вищої освіти у ЗВО.

Час прийшов

Згадана постанова КМУ №912 визначає, коли саме (у якому році) будуть підтверджувати статус національних. Першими під коток потрапляють ті, хто отримав статус у 1994-1997 роках. Іспит вони складатимуть Національному агентству із забезпечення якості вищої освіти (НАЗЯВО).

У квітні 2018 року ректори цих ЗВО отримали від МОН лист щастя з завданням підготуватися і заповнити відповідну тимчасову форму. (Osvita.ua ділилася ним на своєму сайті). На той час НАЗЯВО ще не було і воно якось не пішло. Тепер є НАЗЯВО, і на його сайті є звіти.

Щоправда, самих правил оцінювання ще немає. Проект є, і він навіть був розміщений на сайті МОН і обговорювався, а правил немає.

Як пишуть в аналітичному звіті НАЗЯВО, «…процес створення чітких «правил гри» із присвоєння, підтвердження та скасування статусу «національний» закладам вищої освіти ще не завершено. Однак, з метою виконання Постанови КМУ від 22 листопада 2017 р. №912, у 2019 році НАЗЯВО вперше організувало збір як річних звітів про виконання критеріїв надання та підтвердження статусу національного закладу вищої освіти, так і форм самоаналізу виконання критеріїв надання та підтвердження статусу національного (для формування моніторингової справи)».

Начебто гарна справа. І слід віддати належне авторам аналітичного звіту, що попрацювали вони добре. Але, як і зазвичай, є купа «але». Чи не витрачено тисячі людино-годин вхолосту і не перероблено тони паперу на макулатуру?

Що ж не так з методологією?

А не так те, що робляться вони під хибну методологію. Не так те, що ця методологія не має офіційного статусу залишаючись проектом.

Університетам пропонується заповнити відповідні таблиці і розрахувати 14 порівняльних показників. Не будемо гаяти час на всі. Зупинимося лише на деяких прикладах науметричного характеру.

Візьмемо Показник 8. Це середнє по лікарні. Для оцінки діяльності науковця використовують індекс Гірша (за поясненням Вікіпедії, якщо науковець є автором п'яти публікацій, три з яких процитовано по три рази, а інші дві- по одному разу, то його h-індекс дорівнює 3. Якщо науковець є автором п’яти публікацій, одна з яких процитована 100 разів, а інші чотири - по  одному разу, то його h-індекс дорівнює 1).

Так от, Показник 8 розраховується таким чином: беремо усіх НПНП університету з баз Scopus і WoS, сумуємо їхні індекси Гірша і ділимо на кількість усіх університетських науковців, тобто включаючи й тих, хто ніколи не публікувався у журналах з цих баз і не має індексу взагалі.

Що демонструє Показник 8? Які на його підставі можна зробити висновки? Як будемо лікувати пацієнта?

Показник 9 відносно простий і менш дивний. Це кількість НПНП, які мають не менше п’яти публікацій у журналах зі Scopus або Web of Science, інших наукометричних баз, визнаних МОН, поділена на загальну кількість НПНП університету. Показник може й менш дивний але такий, що дає можливість творчого підходу до його розрахунку. Науковець може мати таку кількість публікацій і у журналі зі Scopus, і у журналі з WoS (до того ж є журнали, які одночасно присутні в обох базах). То чому б його не порахувати двічі.

Фантазія також може розгулятися і завдяки творінню МОНу – «Інші наукометричні бази», бо які вони – ніхто не знає.  Ну,і ще питання: для чого отримане значення множити на 100 науковців? Для того, щоб отримане число не було дуже малим і не муляло око? Тоді слід було б помножити на 1000.

До речі, як приклад і підстава для роздумів. Науковці КНУ ім. Тараса Шевченка усього опублікували в журналах зі Scopus приблизно 16000 статей. Сім науковців університету мають 2000 публікацій у цій базі даних наукового контенту. Знову середнє по лікарні?

Показник 10 начебто коректний, але… Чому кількість журналів слід співвідносити з кількістю спеціальностей, з яких здійснюється підготовка здобувачів вищої освіти в університеті. Знову ж, про які інші наукометричні бази йдеться? А чому з ненульовим коефіцієнтом впливовості, якщо сам факт включення журналу на індексування у Scopus або Web of Science– вже досягнення.

І чим відрізняється трішки ненульовий від нульового? Давайте вже тоді враховувати квартіль журналу в базі. А що таке взагалі коефіцієнт впливовості? І що означає «…що видаються закладом вищої освіти»? Тобто університет може не бути засновником, може не мати відношення до редакційної ради журналу, а виконувати рольвидавця і мати показники? Скільки запитань і де відповіді? Мабуть, особливо допитливим вони надавались у телефонному режимі з МОНу.

Що не так у звітах?

Не слід, звісно, усіх під один гребінець, але знайшлися серед тих, хто готував відповідні звіти в університетах, люди творчі. На жаль, у НАЗЯВО, при підготовці свого звіту, цю творчість не помітили, хоча вказують, що проводилась базова верифікація даних. А вона дала просто кричущі результати.

Найбільш креативно до розрахунку згаданих показників 8, 9 і 10 підійшли в Національному університеті біоресурсів і природокористування України. Так, у них найвищий показник по середньо-лікарняному індексу Гірша – 2,26.

Це при тому, що у Харківському національному університеті імені Каразіна – 1,53, Чернівецькому національному університеті імені Федьковича – 1,23, Київському національному університеті імені Шевченка – 1,64…

Можна, звісно, скористатися послугами безпосереднього самого Scopus і спробувати самому встановити загальну картину, але сенсу у цьому немає. Це буде те ж саме витрачання часу, як і при створенні звітів університетами. Але достатньо, наприклад, зайти на сайт такого проекту, як «Бібліометрика української науки» і побачити, що лідерами за кількістю профілів у Scopus є Національний технічний університет «Харківський політехнічний інститут» (381), Харківський національний університет радіоелектроніки (245), Ужгородський національний університет (240), Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського» (228)… Схоже, саме в них були найбільші шанси стати тут лідерами.

За кількістю науковців  з чисельністю пристойних публікацій більше п’яти у них (у НУБіП) показник дорівнює 56,47, а у згаданих колег – 12,91; 2,88 і 3,15 відповідно.

Лідером у цьому став Національний медичний університет імені Богомольця, який продемонстрував показник на рівні 83,65.  Як вони це зробили, нікого не здивувало.  На другому місці – Луцький національний технічний університет – 79,31. Також, хіба не дивно?

Що стосується журналів, то й тут НУБіП не пасе задніх. Цей показник у нього дорівнює 0,53. І це друге місце. І це при тому, що практично в усіх нулі або близько до нуля. На першому місці Національний технічний університет «Дніпровська політехніка» з результатом 0,92. Ось тут, як сказав би Станіславський, вірю. Але чому б не перевірити.

Сумні нулі за власними журналами в Scopus і Web of Science демонструють Київський національний університет імені Шевченка, Дніпровський національний університет імені Гончара, Національний медичний університет імені Богомольця тощо.

Водночас, показник за такими журналами у Глухівському національному педагогічному університеті імені Довженка дорівнює 0,11, Київський національний лінгвістичний університет має 0,33, Київський національний торговельно-економічний університет – 0,32, Луганський національний університет імені Шевченка – 0,14, Львівська національна академія мистецтв – 0,14, Миколаївський національний аграрний університет – 0,11, Сумський національний аграрний університет – 0,24 (?).

Не можна не звернути уваги на Національну академію керівних кадрів культури і мистецтв. За середнім індексом Гірша академія демонструє результат на рівні 1,3, за кількістю науковців з кількістю публікацій більше п’яти – 11,8, за журналами – 0,1. Тут один журнал, який був у Web of Science, без сумніву, вивів їх у лідери.

І такого добра у звітах скільки завгодно. Було б бажання і час пошукати.

НАЗЯВО в аналітичному звіті пише, що наукометричні показники не мали такого впливу на загальний результат ЗВО, як кількість іноземних студентів і об’єктів права інтелектуальної власності. Не мали, однак тут справа принципу.

І що?

У підсумку маємо звіти і показники, які не можна ні для чого застосувати. Хіба що університети отримали певний досвід. Тільки от які висновки вони з нього зроблять? Особливо ті, хто повірив у проект і чесно (наскільки це було можливо за такої методології) опрацював усі дані і (!) опинився серед аутсайдерів. Тепер маємо підмочену порівняльними даними репутацію, бо хто ж буде перевіряти та аналізувати.

І хто ж винний – університети чи розробники методології? Питання риторичне, хоча у звіті НАЗЯВО читаємо таке: «Оцінка відповідності ЗВО критеріям статусу національного здійснюється на основі даних, поданих самими закладами, згідно форми самооцінки.

Такий підхід містить низку ризиків щодо якості та достовірності даних, оскільки повністю покладає завдання із введення інформації на користувачів з боку національних ЗВО».

По всьому виходить, що зроблено певний вихлоп у калюжу. І що характерно, галасу з боку національних закладів освіти чути не було. Ви нам написали нісенітницю, ми зробили алаверди. От тепер і будемо гадати, чи позбавлять когось цього високого статусу? Як вважаєте? І що ж робити?

Усе просто. Скористатися щойно набутим досвідом. Створити невеличку групу розробників методології (хай її склад буде відомим науковій спільноті). Обов’язково включити до неї тих, хто знається на наукометрії. Опрацювати, внести зміни у нормативні акти. Позбутися звітів у паперовому вигляді. Позбутися зайвих показників і текстів. Зробити відповідні електронні форми для заповнення університетами на сайті МОН. І усе це терміново.

А ще набратися сили волі і духу державним і освітянським керманичам і позбавити статусу національного половину ЗВО. А ще краще – прибрати його в усіх і розпочати з чистого листа.

Сергій Козьменко, доктор економічних наук, професор;

Людмила Остапенко, кандидат економічних наук.

Освіта.ua
10.10.2019

Коментарі
Аватар
Залишилось 2000 символів. «Правила» коментування
Ім’я: Заповніть, або авторизуйтесь
Код:
Код
Кияновська Люба
Оцінка якості роботи наукових працівників за поданими критеріями некоректна хоча б тому, що цілком не враховує фундаментальної різниці між точними і гуманітарними науками. Цілком невипадково лідерами в Україні стали технічні виші. Для гуманітарних спеціальностей американізована система Scopus i WoS, та навіть й індекс Гірша ніяк не підходить з кількох причин. Перша. Багато провідних університетів Європи (гуманітарні спеціальності) не вміщують свої наукові видання в цих базах, хоча їх публікації є справді основоположними для фахівців. Друге. Досягнення технічних і природничих наук є однаково релевантними для всього світу, гуманітарні мають нерідко локальну тематику і важливі для країни або й регіону (етнологія, літературознавство чи моє "рідне" музикознавство). Тож, можливо, варто переглянути вимоги для гуманітаріїв, бо наразі запропонована система має шанс просто знищити гуманітарні галузі.
Учитель
Для Кияновська Люба: можливо гуманітарні науки, не такі вже й науки? Може вони нічого не роблять для науково-технічного прогресу і для зростання виробництва в країні?
Cirius
Спочатку було слово, і слово було Бог.
Любі друзі
Люба "Люба". Музичні досягнення також є релевантними для всього світу. Нова мелодія, як і нова формула, буде відповідно оцінена світовою спільнотою. Не треба усе списувати на локальну унікальнсть.
Коментувати
Гірш, де ти?
Показники 8 та 9 взагалі можна напряму витягувати з наукометричних баз Scopus та WoS. І це буде релевантна інформація.

Щоб отримувати всі публікації
від сайту «Osvita.ua»
у Facebook — натисніть «Подобається»

Osvita.ua

Дякую,
не показуйте мені це!