Спасут ли роботы-судьи российскую судебную систему
Россияне, которые меньше доверяют судам, чаще поддерживают использование автоматизированных систем, принимающих решения без участия людей /Андрей Гордеев / Ведомости
Россияне, которые меньше доверяют судам, чаще поддерживают использование автоматизированных систем, принимающих решения без участия людей, следует из исследования «Евробарометр в России» 2016 г., проведенного РАНХиГС.
На первый взгляд это совершенно логично. Если человек считает, что существующая система несправедлива, то замена «плохого» судьи на «хорошую» машину исправит ситуацию. В видении обывателя роботы-судьи лишены симпатий и прочих иррациональных качеств, не умеют лениться и не поддаются внепроцессуальному давлению.
Первая волна исследований поддерживала такой оптимизм. Разработанная в кабинетах модель Джона Клейнберга и др. в 2017 г. показала на исторических данных лучшее понимание риска рецидива, чем у судей-людей. Авторы заявили, что их алгоритм даст снижение на 42% количества избраний меры пресечения в виде заключения под стражу без увеличения риска рецидива в Нью-Йорке. В 2016 г. мировая и российская пресса сообщала, что «искусственный интеллект» научился предсказывать решения Европейского суда по правам человека (ЕСПЧ) с точностью 79%. Неудивительно, что опрошенные в 2016 г. люди выдали такой кредит доверия роботам-судьям.
Но сохраняется ли технооптимизм в наши дни? В случае с предсказанием решений ЕСПЧ исследование Маши Медведевой и др. в 2019 г. показало, что 79% точности в 79% завышены, поскольку авторы исходной работы использовали будущие решения судей для предсказания прошлых. Это классическая «утечка данных» (data leakage) из будущего в прошлое при машинном обучении, которая приводит к излишне оптимистичным результатам. При исправлении ошибки точность предсказания оказалась 58–68%. Более того, модель, которая предсказывала решение по делу, используя только фамилии судей, добилась точности в 65% – и это еще без использования моделью обстоятельств дела: робот-судья принимал решения, опираясь на личность судей, поведение которых он повторяет. Это заставляет задуматься о применимости подобных моделей в залах судебных заседаний.
В штате Виргиния внедрили систему, которая автоматически оценивала риск рецидива. Месяц назад Меган Стивенсон и Дженнифер Долеак рассказали о своем исследовании итогов работы этой системы на Конференции по эмпирико-правовым исследованиям. Результаты не внушают оптимизма. Да, судьи стали более жестко наказывать тех, кого алгоритм отнес к более высокой группе риска. Но при этом введение системы оценки риска никак не отразилось на уровне рецидивов и не снизило количество решений о лишении свободы. Важнее оказалось то, что система назначала более высокую категорию риска молодым подсудимым, а судьи систематически игнорировали эти оценки, давая людям второй шанс.
Не все аспекты применения алгоритмов этично исследовать в полевых условиях, ведь речь идет о судьбах тысяч людей. Дженнифер Ским и др. собрали 340 настоящих судей в лаборатории, чтобы посмотреть, как автоматическая система оценки риска повлияет на принятие ими решений в экспериментальных условиях. Оказалось, что судьи чаще лишали свободы бедных подсудимых, когда имели перед собой результат алгоритма оценки риска для данного человека. Система заставляла судей больше думать о будущих рисках, чем о социальной справедливости наказания или его влиянии на семью подсудимого.
Робот-судья не учится принимать абстрактные решения, руководствуясь буквой и духом закона. Если натренировать алгоритм машинного обучения на российских судебных решениях по уголовным делам, то количество оправдательных приговоров в стране не изменится. Машина в лучшем случае будет копировать поведение людей, учиться принимать решения так же, как человек-судья.
Ожидать от робота самостоятельной гуманности или справедливости, отличной от той, которую уже проявляли судьи, бессмысленно. Конечно, существуют системы, которые опираются не на обучение, а на правила, но они подходят для относительно простых задач. Такие вещи, как правовая квалификация действия, да и вообще юридическая работа, нельзя свести к набору правил. Так что остается только робот, принимающий решения на основе существующих данных.
Если в лучшем случае российские судьи-роботы будут так же оправдывать раз в семь лет, как и судьи-люди, то чего ждать в худшем случае? Алгоритмы могут усилить существующие отрицательные статусные уклоны в российских судах и нивелируют положительные (мы писали об этом в статье «Российские суды ценят статус подсудимых», «Ведомости» от 4.04.2013). Безработных при прочих равных алгоритмы накажут строже, чем всех остальных. А вот лояльность судей к студентам, которых сейчас (при прочих равных) наказывают мягко, пропадет: роботу-судье чужда идея второго шанса.
Этот пример отлично иллюстрирует роль цифровых технологий в государственном управлении. Алгоритмы хорошо заменяют человека там, где речь идет о механической работе: подставлять фамилии и вылавливать опечатки. Но там, где речь идет о сложных многофакторных решениях, особенно о таких, где наряду с рациональными есть и моральные аргументы, все, что может сделать машина, – это неточно воспроизвести поведение человека, причем часто неточность эта будет выглядеть скорее несправедливой или аморальной.
Цифровизация государственного управления, о которой сейчас много говорят, – это инструмент улучшения жизни, но никак не замена отсутствующих институтов. Хорошим институтам цифровые технологии помогают становиться лучше. Плохие институты алгоритмы могут сделать более удобными для пользователя, а могут – и более репрессивными. Но вот чего технологии точно не могут – это заменить институты. Цифровой помощник может сделать так, что судья будет допускать меньше глупых мелких ошибок, но вот стать вместо судебной системы гарантом справедливости в обозримом будущем не сможет. Если мы хотим построить справедливую судебную систему, то нам придется реформировать ту, что есть, а не надеяться на роботов.
Газета «Ведомости» 19.12.2019