Институт проблем правоприменения

eulogo

  • Главная
  • Хроника
  • О нас
  • Направления исследований
  • Продукты
  • Контакты
  • RU
  • EN

Дмитрий Скугаревский, Кирилл Титаев. Ведомости, Extra Jus: Спасут ли роботы-судьи российскую судебную систему

Дмитрий Скугаревский, Кирилл Титаев. Ведомости, Extra Jus: С ... Image 1

Почему цифровизация не может заменить отсутствующие институты? Колонка экономиста Дмитрия Скугаревского и социолога Кирилла Титаева для читателей «Ведомостей».

Россияне, которые меньше доверяют судам, чаще поддерживают использование автоматизированных систем, принимающих решения без участия людей, следует из исследования «Евробарометр в России» 2016 г., проведенного РАНХиГС.

На первый взгляд это совершенно логично. Если человек считает, что существующая система несправедлива, то замена «плохого» судьи на «хорошую» машину исправит ситуацию. В видении обывателя роботы-судьи лишены симпатий и прочих иррациональных качеств, не умеют лениться и не поддаются внепроцессуальному давлению.

Первая волна исследований поддерживала такой оптимизм. Разработанная в кабинетах модель Джона Клейнберга и др. в 2017 г. показала на исторических данных лучшее понимание риска рецидива, чем у судей-людей. Авторы заявили, что их алгоритм даст снижение на 42% количества избраний меры пресечения в виде заключения под стражу без увеличения риска рецидива в Нью-Йорке. В 2016 г. мировая и российская пресса сообщала, что «искусственный интеллект» научился предсказывать решения Европейского суда по правам человека (ЕСПЧ) с точностью 79%. Неудивительно, что опрошенные в 2016 г. люди выдали такой кредит доверия роботам-судьям.

Но сохраняется ли технооптимизм в наши дни? В случае с предсказанием решений ЕСПЧ исследование Маши Медведевой и др. в 2019 г. показало, что 79% точности в 79% завышены, поскольку авторы исходной работы использовали будущие решения судей для предсказания прошлых. Это классическая «утечка данных» (data leakage) из будущего в прошлое при машинном обучении, которая приводит к излишне оптимистичным результатам. При исправлении ошибки точность предсказания оказалась 58–68%. Более того, модель, которая предсказывала решение по делу, используя только фамилии судей, добилась точности в 65% – и это еще без использования моделью обстоятельств дела: робот-судья принимал решения, опираясь на личность судей, поведение которых он повторяет. Это заставляет задуматься о применимости подобных моделей в залах судебных заседаний.

В штате Виргиния внедрили систему, которая автоматически оценивала риск рецидива. Месяц назад Меган Стивенсон и Дженнифер Долеак рассказали о своем исследовании итогов работы этой системы на Конференции по эмпирико-правовым исследованиям. Результаты не внушают оптимизма. Да, судьи стали более жестко наказывать тех, кого алгоритм отнес к более высокой группе риска. Но при этом введение системы оценки риска никак не отразилось на уровне рецидивов и не снизило количество решений о лишении свободы. Важнее оказалось то, что система назначала более высокую категорию риска молодым подсудимым, а судьи систематически игнорировали эти оценки, давая людям второй шанс.

Не все аспекты применения алгоритмов этично исследовать в полевых условиях, ведь речь идет о судьбах тысяч людей. Дженнифер Ским и др. собрали 340 настоящих судей в лаборатории, чтобы посмотреть, как автоматическая система оценки риска повлияет на принятие ими решений в экспериментальных условиях. Оказалось, что судьи чаще лишали свободы бедных подсудимых, когда имели перед собой результат алгоритма оценки риска для данного человека. Система заставляла судей больше думать о будущих рисках, чем о социальной справедливости наказания или его влиянии на семью подсудимого.

Робот-судья не учится принимать абстрактные решения, руководствуясь буквой и духом закона. Если натренировать алгоритм машинного обучения на российских судебных решениях по уголовным делам, то количество оправдательных приговоров в стране не изменится. Машина в лучшем случае будет копировать поведение людей, учиться принимать решения так же, как человек-судья.

Ожидать от робота самостоятельной гуманности или справедливости, отличной от той, которую уже проявляли судьи, бессмысленно. Конечно, существуют системы, которые опираются не на обучение, а на правила, но они подходят для относительно простых задач. Такие вещи, как правовая квалификация действия, да и вообще юридическая работа, нельзя свести к набору правил. Так что остается только робот, принимающий решения на основе существующих данных.

Если в лучшем случае российские судьи-роботы будут так же оправдывать раз в семь лет, как и судьи-люди, то чего ждать в худшем случае? Алгоритмы могут усилить существующие отрицательные статусные уклоны в российских судах и нивелируют положительные (мы писали об этом в статье «Российские суды ценят статус подсудимых», «Ведомости» от 4.04.2013). Безработных при прочих равных алгоритмы накажут строже, чем всех остальных. А вот лояльность судей к студентам, которых сейчас (при прочих равных) наказывают мягко, пропадет: роботу-судье чужда идея второго шанса.

Этот пример отлично иллюстрирует роль цифровых технологий в государственном управлении. Алгоритмы хорошо заменяют человека там, где речь идет о механической работе: подставлять фамилии и вылавливать опечатки. Но там, где речь идет о сложных многофакторных решениях, особенно о таких, где наряду с рациональными есть и моральные аргументы, все, что может сделать машина, – это неточно воспроизвести поведение человека, причем часто неточность эта будет выглядеть скорее несправедливой или аморальной.

Цифровизация государственного управления, о которой сейчас много говорят, – это инструмент улучшения жизни, но никак не замена отсутствующих институтов. Хорошим институтам цифровые технологии помогают становиться лучше. Плохие институты алгоритмы могут сделать более удобными для пользователя, а могут – и более репрессивными. Но вот чего технологии точно не могут – это заменить институты. Цифровой помощник может сделать так, что судья будет допускать меньше глупых мелких ошибок, но вот стать вместо судебной системы гарантом справедливости в обозримом будущем не сможет. Если мы хотим построить справедливую судебную систему, то нам придется реформировать ту, что есть, а не надеяться на роботов.

Авторы — ассоциированный профессор ПАО «МТС» по эмпирико-правовым исследованиям, ассоциированный профессор по социологии права им. С. А. Муромцева Европейского университета в Санкт-Петербурге.

Источник: Ведомости, Extra Jus.

Меню раздела

  • Анонсы
  • Новости
  • Публикации сотрудников в СМИ
  • Комментарии в СМИ
  • СМИ об ИПП
  • Мероприятия ИПП
Атлас прецедента
Аналитический отчет «Контроль и надзор»
Российская база бухгалтерской отчетности

Вакансии

Все наши образовательные проекты

Тэги

  • судебные решения
  • социология права
  • правоприменение
  • статистика
  • реформа
  • реформа полиции
  • открытость
  • уголовное следствие
  • криминальная статистика
  • арбитраж
  • сравнительное правоведение
  • компаративистика
  • профессия
  • эффективность
  • экономическая преступность
  • уголовный процесс
  • прокуратура
  • закон
  • судья
  • правоохранительные органы
  • бизнес
  • оппозиция
  • отчетность
  • экономика
  • общественная дискуссия
  • реформа судебной системы
  • изменения в законодательстве
  • законодательная активность
  • адвокат
  • Интернет
© 2009-2025 «Институт проблем правоприменения»
Тел. (812) 386 76 12
E-mail: ipp@eu.spb.ru
Телеграм

Наш имидж-пакет Вы можете скачать здесь

Политика АНООВО «ЕУСПб» в отношении обработки персональных данных