Управлять неуправляемым

ТЕМА НОМЕРА / #2_2022
Текст: Наталия АНДРЕЕВА, руководитель аналитической группы «Другая стратегия», член Инвестиционного комитета Северо-Западного центра трансфера технологий / Фото: Росатом, Unsplash.com

Геополитика — геополитикой, санкции — санкциями, а проблемы управления наукой и научно-­технологическим развитием никуда не денутся. Разве что усложнятся, потому что ни количественные, ни качественные методы оценки того, что наука привносит в социально-­экономическое развитие, не помогают достигать целей, стоящих перед государством, обществом, бизнесом и самими исследователями. Как жить и что делать в таких условиях? Вопрос со многими вариантами ответа.

Казалось бы, наука — ровно та благодатная сфера, в которой, в отличие от остальных индустрий, еще можно реализовывать долгосрочные стратегии: жизненный цикл научного знания куда длиннее, чем у смартфонов или йогуртов, наука мало подвержена рыночным колебаниям — и значит, управленцы могут медленно и планомерно выстраивать необходимые изменения.

Но когда доходит до дела, выясняется, что принятые государствами/организациями подходы к управлению наукой не ­очень-то работают, а если работают, то приводят к незапланированным последствиям и неприятным сюрпризам. Причем и традиционное «управление по результатам, как в бизнесе» (гора количественных показателей), и «управление на основании внешней экспертизы» (качественная оценка) оказываются одинаково неэффективными.
Количественная гонка
Управление по результатам (количественные показатели и индустриальные метрики оценки науки, ориентированные на эффективность и результативность) принято ругать, и не без оснований.

Изначально использование исключительно количественных метрик было во многом вынужденной мерой: в 1980‑х государства столкнулись с кризисом бюджетных дефицитов, в 1990‑х — искали новые источники экономического роста и сделали ставку на концепцию инновационной экономики с ее [гипотетической] цепочкой «наука — инновации — экономический рост».

В результате в большинстве развитых (да и развивающихся) стран науку начали финансировать по модели «заказчик — исполнитель», для оценки научных результатов и вклада науки в социально-­экономическое развитие использовали «индустриальные» метрики: количество статей, цитируемость и, в случаях с прикладными разработками, методику Technology Readiness Level, разработанную в свое время NASA, или ее аналоги.

В свое время такой подход к управлению наукой выглядел оправданным. Но, как и любые количественные методы, он страдал и страдает от очень характерных ошибок: измеряется то, что проще всего измерить (количество статей, цитируемость, индекс Хирша, объем денег, выделенных на одного исследователя), а не то, что важно (вклад в развитие научной дисциплины, признание сообществом, новизна); наука как объект примитивизируется (эффект от исследовательской деятельности не ограничивается статьями, но сосчитать можно только их); измеряются затраты, а не результат (процент ВВП, вкладываемый в науку, а не достигнутое счастье).

И, конечно, исследователи, как и любые жертвы количественных показателей, за долгие годы выработали способы сломать систему, начиная с выбора «модных тем», вроде гендера, diversity, мегасайенс и пр., и заканчивая снижением собственных стандартов для улучшения показателей (например, «размазывание» результатов исследования по пяти приемлемым статьям вместо публикации одной статьи, зато превосходной).

В итоге к 2020‑м годам последствия ставки на управление через количественные показатели стали очевидны практически всем участникам процесса; самые заметные — падение качества научного результата и кризис воспроизводимости (свой вклад в него вносят вопросы коммерческой тайны и интеллектуальной собственности, то есть случаи, когда публиковать полностью открытые и достоверные результаты нельзя, но хотя бы ­что-то опубликовать надо).

Некоторые исследовательские организации уже многие годы пытаются смягчить последствия управления по результатам и гонки за показателями и повысить качество исследований, не прибегая к подтасовкам.

В университетах и научных центрах создаются специализированные подразделения, контролирующие и поддерживающие стандарты качества (офисы по научной этике и открытой науке, по обучению исследователей и пр.) — и зачастую формируются цифровые департаменты, помогающие ученым качественно работать с данными и тем самым обеспечивать воспроизводимость. Реализуются инициативы, позволяющие снять с исследователей нагрузку, которая не относится к исследовательскому процессу: создаются грантовые офисы, ведущие мониторинг множества фондов, профессионально готовящие заявки на гранты, формирующие отчетность и пр. Наконец, идет внедрение нового оборудования и новых лабораторных решений — роботизированных, гибких, полностью цифровых, — способных максимально упростить работу исследователей, освободив их от рутинных операций.

Но, судя по всему, предел эффективности этих мер уже достигнут — или они не дают системного эффекта (хотя они вполне могут заметно облегчать жизнь научных групп и организаций). Если верить результатам опросов журнала Nature, в химии неудачей заканчивается 90% попыток воспроизвести результаты чужих экспериментов, в биологии — около 80%, в физике и инжиниринге — почти 70%. В гуманитарных дисциплинах, скорее всего, ситуация еще хуже.
Ответы на вопрос: «Как бы вы охарактеризовали ситуацию с воспроизводимостью в науке?» (% ответивших)
Опрос по воспроизводимости (Nature): % исследователей, безуспешно пытавшихся воспроизвести эксперименты
Проблемы возникают не только с воспроизводимостью научных результатов, но и с их применением. И речь не только о фундаментальной науке, но и о прикладных разработках.

Один из самых свежих (и тревожных) примеров такого рода — история с «блестящими» научными перспективами ИИ-решений / математических моделей в области диагностики COVID‑19 (на основе машинной обработки рентгеновских и КТ-снимков). В 2020 году на эту тему было опубликовано более 2 тыс. статей. В итоге оказалось, что ни одна из предложенных моделей не применима в клинической практике.

Наконец, гонка за количественными показателями разрушительно влияет на научное сообщество в целом и на исследователей в частности.

Глобальный опрос журнала Nature 2021 года показал, что 40% исследователей недовольны своими должностями, 31% работают больше 50 часов в неделю (и только 2% получают денежную компенсацию за переработки), а 42% обращались или планируют обратиться к психологам, чтобы справиться с депрессией или расстройствами тревожного спектра, связанными с работой.

В таких условиях не удивительно, что в начале 2022 года в Великобритании состоялась забастовка работников университетов, протестовавших против ненормированной пандемийной нагрузки, неустойчивой занятости и пр.

Иными словами, количественные метрики и критерии, применяемые в науке, приводят не к появлению большего количества инноваций (новых технологий, бизнесов и пр.) и не к экономическому росту, а к фейковой или «мусорной» публикационной активности, достижению нежизнеспособных результатов (даже в прикладных дисциплинах) и едва ли не поголовному профессиональному выгоранию ученых.
Качественные проблемы
Хорошие новости в том, что в последние пять-семь лет в мире ­все-таки начался постепенный переход от количественных замеров к качественным, причем качество определяется, в первую очередь, как позитивный эффект, который экономика и/или общество получают от научных результатов и, шире, деятельности научных и исследовательских организаций.

С 2014 года в том или ином виде развивает качественные метрики и способы оценки науки Евросоюз (соответствующие требования заложены в очередную рамочную исследовательскую программу Horizon Europe). Кроме того, собственные системы оценки создаются и развиваются в отдельных европейских странах, в том числе в Великобритании (именно там создана самая известная система оценки вклада науки в социально-­экономическое развитие Research Excellence Framework), Нидерландах (специальная процедура оценки для исследовательских подразделений университетов), Швеции (с 2019 года исследовательские центры, получающие финансирование от Национального совета по науке, сдают в качестве отчетности «примеры позитивного влияния научных результатов на экономику и общество») и пр.

Плохие же новости — в том, что польза от качественных и ориентированных на «вклад в развитие» метрик оценки пока сомнительна, причем как с точки зрения управления развитием науки, так и с точки зрения воздействия на исследователей и научные сообщества.

Во-первых, качественные метрики и требования, как и сон разума, рано или поздно рождают чудовищ. Особенно применяемые «на входе» в любые программы финансирования. Например, еще в 1981 году команда исследователей из университетов Нью-­Йорка и Колумбии проанализировала результативность качественной оценки грантовых заявок в Национальном научном фонде США (National Science Foundation, NSF). Как выяснилось, шансы ученых получить грант по итогам peer review были примерно такими же, как если бы комиссия одобряла заявки случайным образом.

Свежий пример такого рода, рискующий стать хрестоматийным, — история Сабины Хоссенфельдер, немецкой специалистки по квантовой гравитации, получившей отказ от грантового фонда, поскольку ее исследования в области гипотезы инфляционной модели Вселенной не вносили вклад в разработку проблем «пола, гендера и diversity».

Во-вторых, для нормальной качественной оценки исследовательской деятельности нужно очень, очень много денег. Например, уже упоминавшаяся Research Excellence Framework обошлась всем участникам процесса — правительству, университетам и пр. — в общей сложности в сумму около $ 330 млн. С учетом того, что REF работает с 1986 года, можно представить, в какую сумму обошлась качественная оценка результатов, — и заодно усомниться в том, что результат того действительно стоил.

В-третьих, выгодополучатели по итогам качественной оценки — это, как правило, государства и фонды; самим исследователям бесконечная отчетность и вмешательства в научный процесс только мешают.
Мнение исследователей: как REF‑2021 повлиял на различные аспекты научной деятельности в Великобритании (% ответивших)
Как показал опрос британских исследователей, проведенный RAND, несмотря на отдельные позитивные моменты, в целом исследователи оценивают влияние системы REF на науку как негативное. Минусов в ней больше, чем плюсов (и для отдельных ученых, и для исследовательских организаций); зачастую результаты оценки негативно сказываются на карьере исследователей — в том числе из-за того, что оценивают результаты научной деятельности люди, слабо разбирающиеся в предмете оценки; наконец, исследовательские приоритеты самих ученых часто расходятся с приоритетами государства и общества.

И самый очевидный минус REF — маргинализация всего нового и прорывного, поскольку качественные метрики и экспертная оценка не избавляют процесс оценивания от эффекта колеи. Предустановленные качественные требования и мнения экспертов загоняют исследователей в привычные и общественно одобряемые темы ничуть не хуже, чем показатели вроде количества и цитируемости статей. И если от системы контроля качества заметно выигрывают открытость и прозрачность научного процесса (в том числе с точки зрения соответствия научных направлений интересам общества), то новизна и оригинальность исследований от REF и ее метрик откровенно страдают.

Кроме того, многие исследователи отмечают, что целеполагание REF не вполне ясно: непонятно, что, почему и зачем пытаются замерить — и какого вообще эффекта ожидают от научной деятельности с точки зрения развития экономики и общества. Особенно с учетом того, что ожидания эти меняются так же стремительно, как политическая повестка (то есть по десять раз на дню), а жизненный цикл исследований — как правило, несколько лет, и за актуальностью просто невозможно угнаться.

Все это, как и давление количественных показателей, приводит к имитации — правда, уже другого рода: вместо «мусорных» публикаций и патентов, производящихся конвейерным способом, ученые вынуждены упражняться в изящной словесности и привязывать свои темы к актуальной повестке государств и фондов, хотя направление исследований фактически не меняется.

Сценариев же работы с управленческим кризисом, судя по всему, только два: сложный и фантастический.
Сверху вниз без перегибов
Сложный сценарий — обновить традиционный подход «управление по результатам», в той или иной форме ужесточив контроль за цепочкой «наука — инновации — экономика».

И самый доступный вариант — переориентировать научное финансирование на решение проблем конкретной страны вместо традиционного «обогрева космоса».

Отчасти переориентация на национальные проблемы и задачи опирается на популярную логику «больших вызовов» — сверхсложных проблем, которые не могут быть решены линейным наращиванием финансирования, требуют новых подходов к их решению и определяют приоритеты в области научно-­технологической политики. Разница только в том, что вызовы эти — не глобального уровня (изменения климата, борьба с нищетой, решение проблемы ВИЧ/СПИД и пр.), а странового.

Именно этот вариант сейчас, очевидно, реализуется в Китае: в условиях усиливающейся изоляции страна сделала ставку на собственные силы — и собственную науку (не отказавшись, впрочем, от международного сотрудничества).

Китай реформирует научно-­технологическую политику по принципу «китайская наука должна заниматься тем, что нужно Китаю, а не проблемами остального мира». Причем, если судить по планам на 14‑ю пятилетку, трансформация затронет все компоненты научной сферы, начиная с Академии наук (превращение ее в сеть национальных лабораторий, работающих исключительно по актуальным для страны направлениям) и заканчивая развитием собственных высококачественных научных журналов, способных обеспечить трансформацию научной повестки в соответствии с национальными задачами. В такой же логике — ставка страны на сложившиеся центры научно-­технологического превосходства (Пекин, Шанхай и пр.) и на работу с «дефицитными» научными направлениями, в которых Китай пока зависит от внешнего мира.

С точки зрения метрик это означает строгую привязку финансирования к приоритетным направлениям научно-­технологического развития и, что немаловажно, частичный отказ от чисто количественных метрик: Китай, например, объявил о пересмотре подходов к оценке научной результативности и эффективности в 2020 году — и тогда же прямо запретил доплачивать исследователям за опубликованные статьи, чтобы не плодить «мусорные» публикации. При этом не менее трети статей исследователи должны публиковать в китайских научных журналах.

В мягкой форме ставку на национальные интересы в науке пытаются сделать и США. В 2021 году несколько членов Палаты представителей выступили с предложением обновить деятельность Национального научного фонда, в том числе — создать подразделение «Научные и инженерные решения» (Science and Engineering Solution), которое отвечало бы за «приложение» фундаментальной науки к главным общественным вызовам и проблемам США: неравенству (особенно в плане доступа к здравоохранению), национальной безопасности, решению вопросов изменения климата и пр. Билль получил одобрение Палаты представителей; сейчас ведется работа по согласованию отдельных его положений с одобренным ранее Актом об инновациях и конкуренции (Innovation and Competition Act, 2021).

(Правда, как уже было сказано, традиция имитации актуальности и востребованности живет в веках — как и низкий уровень компетентности лиц, принимающих реальные решения, и проблема маргинализации новых и потенциально перспективных отраслей из-за эффекта колеи).

Второй возможный компонент сложного сценария работы с управлением наукой — аутсорсинг: некоторые страны пробуют частично отдать управление прикладной наукой и научными приоритетами на откуп рынку и технологическим компаниям.

По этому пути (предсказуемо) идет уже упомянутый Китай: план на 14‑ю пятилетку предполагает, что частью крупных научных проектов фактически будут управлять промышленные и технологические компании — именно им предстоит распределять полученное от государства финансирование; а научные институты Академии наук и университеты будут выступать партнерами, соисполнителями или субподрядчиками. Кроме того, компании, инвестирующие не только в прикладную, но и в фундаментальную науку, получат налоговые льготы.

В менее прямолинейной форме переориентируют прикладную науку на рынок США, создающие в рамках Национального научного фонда Управление по технологиям и инновациям, ответственное за то, чтобы критические технологии: био-, квантовые, полупроводники и пр. — разрабатывались в соответствии с потребностями технологических компаний и в перспективе становились новыми продуктами/услугами. Для решения этой задачи разворачивается сеть тест-бедов — полигонов для тестирования технологий и продуктов.

Похожая логика заложена и в общеевропейскую исследовательскую программу Horizon Europe, в рамках которой создается Европейский совет по инновациям, ответственный за эффективный трансфер технологий и обеспечение инновационного развития.

Позитивный эффект от рыночного подхода в части прикладных исследований состоит также в вовлечении академических исследователей и научных групп в контур корпоративной науки с ее технологическими консорциумами, динамичными исследовательскими экосистемами, продуктовым подходом и пр. С учетом того, что вложения корпораций в науку растут быстрее государственных, дополнительное взаимодействие науки с бизнесом может оказаться не такой уж плохой идеей.

Третий компонент, который может помочь модернизации модели «сверху вниз», — применение венчурного подхода в науке.

Его, например, прямо сейчас апробирует Великобритания: чтобы ­наконец-то обеспечить переток научного знания в экономику, британские коллеги создают Агентство по передовым исследованиям и изобретениям (Advanced Research and Invention Agency). Агентство будет действовать независимо от остальных государственных фондов и сфокусируется исключительно на научных проектах, которые потенциально могут привести к перевороту в сложившихся научных парадигмах или к революционным изменениям технологий и рынков. При этом предполагается, что финансирование будет распределяться буквально по принципу венчура — как посевные инвестиции в потенциально перспективные темы и направления.

Конечно, на практике у такого подхода может обнаружиться масса ограничений, в первую очередь — несовместимость венчурного принципа с принципом ответственности за расходование государственных денег. Инвестменеджеры «от государства», как правило, ­почему-то не хотят сидеть в тюрьме и предпочитают вкладываться в неоригинальные разработки вроде 3D-печати имплантов.

Но если описанный организационный эксперимент удастся, это будет новое слово в управлении наукой «сверху вниз»: в оптимистичном варианте традиционное «управление сверху вниз по результатам» может трансформироваться в более сложную систему, в рамках которой финансирование фундаментальной науки организуется по принципам венчура, а условно-­прикладной — по принципу наибольшей востребованности технологическими компаниями.

К сожалению, в нашем сверхсложном и турбулентном мире ни китайский (только интересы страны, только хардкор!), ни более мягкий американский/британский подходы, несмотря на их практичность, скорее всего, не дадут ожидаемых результатов.
Доказательность + сотрудничество
Поэтому имеет смысл внимательно рассмотреть второй сценарий — фантастический. А именно — перспективы создания системы нормального доказательного управления наукой, в первую очередь — аналитики, которая позволит понять, что и как влияет на развитие науки и на динамику научно-­технологического развития.

Сама концепция доказательного управления сейчас очень популярна, в том числе в России. Но в науке ее применить очень сложно.

Во-первых, паттерны внедрения научных результатов в экономику/промышленность, а также эффекты от этого внедрения сильно зависят от отраслевой специфики. Например, если новые матмодели для искусственного интеллекта могут пройти путь от исследовательского проекта до продукта в течение года, то, допустим, новым моноклональным антителам придется добираться до рынка несколько лет.

Во-вторых, статистика и доступные управленцам индикаторы научного и технологического развития не позволяют судить о том, каким образом научное знание и результаты исследовательской деятельности превращаются в рыночные продукты и как устроен жизненный цикл научного знания (особенно в фундаментальной науке, для которой пока не придумали аналогов подхода Technology Readiness Level). Соответственно, очень сложно оценить вложения в исследования и разработки в чисто инвестиционной логике.

В-третьих, жизненный цикл научного знания и результатов исследований варьируется не только по отраслевому признаку, но и в зависимости от рыночного ландшафта: крупные транснациональные и национальные корпорации работают с технологиями и патентами одним образом, малые и средние компании (особенно удаленные от центров рынка) — другим.

К счастью, уже примерно понятно, как можно было бы решить эти проблемы.

Для начала — выстроить нормальную, обоснованную систему сбора и анализа ретроспективных данных, которая позволила бы вскрыть черный ящик научно-­инновационного процесса если не в динамике, то хотя бы в состоянии «на текущий момент».

Само собой, речь идет не о традиционных статистических показателях и индикаторах, совершенно не отражающих ни качественные аспекты научных результатов, ни их потенциальную рыночную востребованность. Система должна включать весь комплекс методов и метрик, пригодных для использования в работе со сложными объектами и системами, а именно:

  • статистический анализ (статистическое моделирование, лонгитюдный анализ, эконометрика, методы разности разностей, двой­ной разности, анализ распределительных эффектов);
  • системный анализ (картирование научного знания, анализ социальных связей, байесианские сети, агентные модели, динамическое системное моделирование);
  • текстуальный и нарративный анализ (кейсы, этнография, включенное наблюдение, сравнительный качественный анализ, интервью, фокус-­группы, социологическое опросы, партисипаторный мониторинг, эстетика, устная история, сторителлинг, картирование культур и практик, репрезентация в литературе и публицистике);
  • синтетические методы (мета-анализ, нарративный синтез, метод быстрых доказательств);
  • анализ индикаторов (теория изменений, анализ логической структуры, окупаемость, оценка социального влияния).

К сожалению, фантастическая задача создания такой системы — не самое сложное из того, что нужно сделать для эффективного управления наукой.

Самое сложное и критически важное — разработать систему оценки (хоть общегосударственного, хоть университетского, хоть институтского уровня) по принципу включенного проектирования. То есть мультипользовательский продукт, приносящий пользу всем сторонам, связанным с управлением наукой: министерствам, фондам, руководителям организаций, научным группам и каждому исследователю.

Во-первых, только такой подход позволяет согласовать интересы в части целеполагания системы оценки — и самого процесса этой оценки. Возможный спектр целей очень велик — начиная с «научного понимания» (описания и анализа науки, научных групп/организаций и отдельных исследователей как объектов управления) и заканчивая «оценкой для поощрения и наказания» (для поддержки одних видов/типов исследований и урезания финансирования другим). Не говоря уже о «ярмарках тщеславия» в виде рейтингов, системах премирования и мониторинге для отчетности. Если цели у разных игроков «научного рынка» различны, то исследовательская деятельность может вылиться в усилия лебедя, рака и щуки.
Уровень рисков, возникающих из-за разных типов целеполагания / метрик у акторов научной деятельности
Во-вторых, включенное проектирование гораздо больше соответствует запросам молодых ученых. Потому что люди меняются, и, несмотря на то что некоторым в розовых мечтах все еще являются шарашки и призрак Лаврентия Павловича, фарш невозможно провернуть назад — и оценивать работу нового поколения исследователей по принципу «заказчик-­государство — исполнитель-­ученый» тоже нельзя (разве что за исключением очень прикладных сфер, где заказ конкретен и понятен). Технически, конечно, это возможно, но давление показателей и требований, полностью лишенных для исследователей смысла, поспособствует скорее их уходу из науки, чем повышению эффективности и продуктивности.

Конечно, в этой связи можно было бы долго шутить про «людей-­снежинок» с их гиперчувствительностью и нежеланием терпеть неудобства, но поколенческая динамика — это факт, и управленцам всех уровней целесообразно ее учитывать. И нашим западным коллегам приходится это делать: молодые ученые начинают требовать подотчетности организаций (включая профессиональные ассоциации и университеты), прозрачного принятия решений, доказательного управления, институционализации ценностей равенства и инклюзивности и пр.

И в‑третьих, включенное проектирование систем оценки — по принципам нормальной инженерии — позволяет исправить большинство возможных ошибок и учесть риски на ранней стадии разработки, а не в процессе выхода системы/продукта на рынок. Что, в свою очередь, может в разы снизить стоимость разработки и эксплуатации системы оценки науки.

Неудивительно, что первые подходы к созданию методик включенного проектирования оценки и управления в мире уже сделаны. Например, в 2014 году группа европейских исследователей сформулировала Лейденский манифест исследовательских метрик (Leiden Manifesto for Research Metrics), в который вошли 10 основных принципов оценки результативности исследований, в том числе: необходимость учитывать при оценке цели и «научные миссии» организаций, научных групп и отдельных исследователей, а также обеспечивать доступ оцениваемых к данным оценки и к методам анализа этих данных. (Конечно, Лейденский манифест — далеко не первый документ такого рода, однако именно он назвал взаимодействие оценивающих с оцениваемыми одним из ключевых требований к системам оценки.)

Еще дальше пошла Международная ассоциация обществ научных менеджеров (International Network of Research Management Societies), в 2018 году разработавшая рамочную методику создания систем оценки результативности исследований по принципам дизайн-­мышления — SCOPE. Один из важнейших компонентов этой методики — включенное проектирование: система оценки исследователей, научных групп и пр. должна создаваться в партнерстве с исследовательским сообществом, поскольку это единственный способ обеспечить точное соответствие системы «измеряемому объекту»; вне академии экспертизу в части того, как реально устроен научный процесс, получить физически невозможно.
Общая схема методики SCOPE (основные этапы)
Принципы SCOPE — и, шире, дизайн-­мышления — уже применяются на практике.

Например, в Лейденском университете в 2018 году при разработке системы оценки одного из научных подразделений (теологического, как бы смешно это ни звучало) сотрудники Центра исследования науки и технологий, ответственные за оценку, использовали глубинные интервью с исследователями и специализированный воркшоп по методу дизайн-­мышления. Команда Центра пришла к выводу: в процессе оценки необходима позиция «научного дипломата» (вместо «научного бюрократа/управленца») — человека, способного понимать и согласовывать, казалось бы, несовместимые вещи: политику и интересы организации, личные интересы исследователей, «внешнего мира» и пр.

Кроме того, принципы дизайн-­мышления и включенного проектирования уже используются для работы со многими аспектами исследовательской деятельности — помимо разработки систем оценки. Например, для создания крупных научных проектов, финансируемых из Национального научного фонда США, используется целый набор методик, позволяющих управленцам взаимодействовать с исследователями. И все эти инструменты: фокус-­группы и пользовательские комитеты, различные виды социологических опросов, неформальная обратная связь и профильные «исследования пользователей» (user research) — вполне могут применяться для выстраивания многопользовательских систем оценки науки.
Российский вариант
Еще несколько месяцев назад пространство маневра для управления российской наукой было довольно широким: геополитическая ситуация оставляла шансы на то, что российские научные команды и организации смогут «сыграть» на мировом технологическом рынке, вой­дя в глобальные цепочки поставок (даже если с коммерциализацией технологий в России все осталось бы по-прежнему — не очень хорошо). Кроме того, у страны были возможности и ресурсы для финансирования науки в венчурной логике — по огромному количеству направлений, заметная доля которых не имела никакого отношения к приоритетам социально-­экономического развития.

(Хотя вопрос о том, чтобы ­все-таки частично перенаправить научное финансирование на приоритеты, установленные Стратегией научно-­технологического развития Российской Федерации (СНТР), обсуждался с момента принятия стратегии в 2016 году. Но заметных изменений в этой области так и не произошло — возможно, в связи с неоднократно анонсированными планами пересмотра СНТР из-за изменений в приоритетах.)

В нынешней ситуации (санкции, галопирующая инфляция, более чем реальная угроза урезания бюджетов) самый логичный и вероятный вариант для России — повторение того, что делает Китай: жесткая приоритезация, концентрация ресурсов, привязка финансирования к экономическим и/или социальным эффектам, необходимым стране, принуждение науки и бизнеса к эффективному взаимодействию — и создание собственных научных «табелей о рангах».

Работа по последнему направлению уже идет: в России планируется создание Национальной системы оценки результативности научных исследований и разработок (по поручению зампреда правительства Д. Чернышенко). И предложения, озвученные на первом обсуждении этого вопроса 11 марта (Общественно-­экспертный совет по нацпроекту «Наука и университеты»), практически полностью лежат в русле «китайской модели»: пересмотреть публикационную политику, расширить использование базы ведущих российских журналов Russian Science Citation Index, в качественной оценке результатов опираться на российских экспертов (в том числе из пула РАН) и пр.

Впрочем, потенциал для выстраивания доказательной системы управления, основанной на кооперации (вместо модели «заказчик — исполнитель»), в России все еще есть.

Во-первых, осторожный оптимизм вызывает тот факт, что создание новой системы оценки российской науки обсуждается публично — с привлечением РАН и университетов. До реального вовлечения исследовательского сообщества в проектирование этой системы, конечно, еще далеко, но есть шанс, что в нынешних экстремальных условиях удастся сгладить давнишний конфликт приоритетов исследователей, научных администраторов, государства, бизнеса и общества.

Во-вторых, в стране создана довольно сложная и разнообразная система поддержки науки. Принята программа «Приоритет 2030»; в рамках нацпроекта «Наука и университеты» развиваются профильные федеральные проекты; наконец, предложения министерства науки и высшего образования (платформа университетского технологического предпринимательства и передовые инженерные школы) вошли в Перечень инициатив социально-­экономического развития. И большая часть этих инструментов работает не столько «сверху вниз», сколько в формате «если есть интересное предложение, будут деньги».
Кроме того, в «Приоритете 2030» предусмотрено создание научно-­технологических консорциумов, а это, пожалуй, один из главных кооперационных инструментов в мировой практике (как именно получится его применить в российских условиях, пока не очень понятно, однако логики кооперации всех сторон, заинтересованных в развитии науки и технологий, это не отменяет).

В-третьих, надо понимать, что жесткая ставка на приоритеты вызовет, как минимум, брожение в научных сообществах: российская наука очень стабильна; у каждого российского университета и исследовательского центра есть своя, исторически сложившаяся специализация, и отказаться от нее будет очень непросто (например, анализ НИУ ВШЭ показал, что больше половины российских научных публикаций в зарубежных журналах так или иначе связаны с традиционными областями специализации). Поэтому, с учетом неумолимо приближающегося 2024 года и выборов президента, резкое закручивание финансовых гаек может привести к неприятным последствиям.

И наконец, высока вероятность того, что в 2022 году всем будет не до пересмотра научных приоритетов. Российской науке придется срочно разбираться с более приземленными и насущными проблемами: импортозамещением научного оборудования (комплектующих, реагентов и пр.) и сохранением кадров.
ДРУГИЕ МАТЕРИАЛЫ #2_2022