Полиция города Дарема на севере Англии запускает компьютерную программу, которая при помощи алгоритма искусственного интеллекта должна помочь полицейским определить, кого следует содержать под стражей, а кого можно отпустить.
Алгоритм классифицирует задержанных по степени риска - с какой вероятностью они могут вновь совершить преступление.
Программа - Harm Assessment Risk Tool (Hart) - "изучала" данные полиции Дарема об арестах за период в пять лет, между 2008 и 2012 годами.
Затем система была протестирована даремской полицией в 2013 году, после чего в течение двух лет изучались результаты этого тестирования - полицейские отслеживали, вернулись ли освобожденные к преступной жизни или нет.
Как выяснилось, алгоритм мог предсказать, что задержанный не представляет опасности в 98% случаев. А находящихся в группе "высокого риска" компьютер правильно выявлял в 88% случаев.
Это отражает настройки алгоритма искусственного интеллекта - он запрограммирован "осторожничать" и классифицировать задержанных людей чаще в группы среднего или высокого риска - чтобы не выпускать на свободу тех, кто может снова совершить преступление.
В ходе испытаний программы полицейские следили за выводами Hart, но вердикт алгоритма не влиял на принятие решения об аресте, говорит Шина Эрвин из даремской полиции.
"Я думаю, что в течение ближайших двух или трех месяцев мы, скорее всего, предоставим эту программу в качестве подспорья полицейским, принимающим решения", - сказала она в интервью Би-би-си.
Шина Эрвин говорит, что подозреваемые, ранее не совершавшие преступлений, с меньшей вероятностью будут записаны алгоритмом искусственного интеллекта в категорию высокого риска. Однако если они арестованы по подозрению в серьезном преступлении, как, например, убийство, то это отразится на оценке программы.
В разработке этой программы принимал участие профессор Лоуренс Шерман из Кембриджского университета.
По его словам, программа может быть хорошим помощником во многих случаях: когда полиции следует решить, держать ли задержанного еще несколько часов; следует ли отпустить его под залог до того, как ему будут предъявлены официальные обвинения, и стоит ли держать его под арестом после предъявления обвинений.
В ходе нового эксперимента полицейские будут использовать систему при рассмотрении лишь ряда дел, выбранных случайным путем.
В 2016 году американский новостной сайт ProPublica опубликовал результаты исследования алгоритма, который использовала полиция для того, чтобы определить шансы рецидивизма среди арестованных.
Исследование показало, что в алгоритм заложена расовая необъективность: программа давала гораздо более негативные прогнозы в отношении чернокожих арестантов по сравнению с белыми задержанными. Компания, создавшая этот алгоритм, отрицает выводы ProPublica.
Правообладатель иллюстрацииGETTY IMAGESImage captionАлгоритмы создают люди, и они могут заразить компьютер своими предубеждениями
"В каком-то смысле компьютерные модели наглядно демонстрируют скрытые и подсознательные допущения, к которым прибегают люди", - говорит профессор Пенсильванского университета Кэри Кольянезе, который изучает процессы принятия решений при помощи алгоритмов.
"Довольно сложно определить, насколько именно эти компьютерные модели склонны к дискриминации", - говорит он.
Даремская система учитывает не только информацию о прошлых преступлениях подозреваемого, но также его почтовый индекс и пол.
В ответ на запрос парламентской комиссии, рассматривавшей возможные проблемы процесса принятия решений на основе выводов алгоритмов, создатели даремской системы заявляют, что они уверены в том, что им удалось ограничить возможность дискриминационного подхода к арестованным.
"Информация о почтовом индексе никак напрямую не отражается на результате - окончательное решение зависит от того, как эта информация увязывается с тысячами других возможных факторов", - говорят они.
Они также подчеркивают, что любой вывод алгоритма носит лишь рекомендательный характер и ни в коем случае не отбирает у полиции прерогативу принимать окончательное решение о судьбе задержанного.
Профессор Шерман также говорит, что этот алгоритм должен сохранять все данные о том, как программа пришла к определенному выводу.
Правообладатель иллюстрацииGETTY IMAGESImage captionПрограмма Hart имеет доступ лишь к данным даремской полиции
По словам Шины Эрван, возможности этой программы ограничены.
Например, на данный момент система оперирует лишь данными даремской полиции, и у нее нет доступа к общенациональным компьютерным системам британских правоохранительных органов.
Это означает, что если полиция Дарема арестует человека, совершавшего тяжкие преступления в других регионах Британии, алгоритм не сможет точно определить, насколько опасен этот человек.
"Это проблема", - признает Хелен Райан из Винчестерского университета. При этом она добавляет, что "даже без этой системы полиция испытывает затруднения в том, что касается доступа к информации".
Однако, по ее словам, даремский эксперимент чрезвычайно интересен. "Потенциально компьютеры - при наличии достаточного количества информации - могут принимать гораздо более точные решения , чем люди", - считает она.
16:31
16:18
16:06
15:55
15:41
15:28
15:14
14:55
14:41
14:26
14:13
13:58
13:41
13:26
13:12
12:56
12:42
12:27
12:13
11:52
11:39
11:26
11:12
10:51
10:51
10:37
10:23
10:10
09:51
09:39
09:23
09:09
17:55
17:41
17:29
17:18
17:07
16:56
16:42
16:29
16:17
16:04
15:51
15:35
15:22
15:09
14:55
14:41
14:28
14:15
Вс | Пн | Вт | Ср | Чт | Пт | Сб | |
1 | |||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 | |
9 | 10 | 11 | 12 | 13 | 14 | 15 | |
16 | 17 | 18 | 19 | 20 | 21 | 22 | |
23 | 24 | 25 | 26 | 27 | 28 | 29 | |
30 |
15:39
09:49
13:25
14:04
12:51
15:28
12:39
13:24
13:02
12:39
15:08
11:15
14:33
12:26
11:23
13:25
15:19
14:27
15:16
12:13
15:14
14:44
13:25
11:06
13:12
11:13
14:15
11:26
09:35
11:41
10:37
10:55
12:28
12:13
12:51
11:35
10:45
16:51
10:21
14:27
12:37
11:23
13:03
10:47
13:03
13:15
14:58
14:55
14:31
14:19