Разумевање инструмената за процену ризика у кривичном правосуђу

Алгоритамски алати су данас у широкој употреби у систему кривичног правосуђа. Алгоритми за предвиђање полиције, укључујући ПредПол и ХунцхЛаб, обавештавају полицију са проценама где је највероватније да ће се десити злочин.једнаПаттернизр је алатка за препознавање образаца у њујоршкој полицијској управи која помаже детективима да аутоматски открију повезане злочине.дваПолицијске службе такође користе софтвер за препознавање лица да идентификују могуће осумњичене са видео снимка.3Окружни тужиоци у Чикагу и Њујорку користили су предиктивне моделе како би усредсредили напоре тужилаштва на високоризичне појединце.4У Сан Франциску, окружни тужилац користи алгоритам који прикрива информације о раси из материјала предмета како би смањио пристрасност у одлукама о наплати.5 6

Инструменти за процену ризика

Једна класа алгоритамских алата, која се називају инструменти за процену ризика (РАИ), дизајнирана је да предвиде будући ризик оптуженог за недолично понашање. Ова предвиђања утичу на доношење судских одлука високих улога, као што је да ли ће се појединац затворити пре суђења. На пример, РАИ под називом Процена јавне безбедности (ПСА) узима у обзир старост појединца и историју недоличног понашања, заједно са другим факторима, да би произвео три различите оцене ризика: ризик да ће бити осуђен за било који нови злочин, ризик да биће осуђени за ново насилничко дело, те ризик да се неће појавити пред судом.7Оквир за доношење одлука преводи ове оцене ризика у препоруке за услове ослобађања, са вишим оценама ризика који одговарају строжијим условима ослобађања. Судије могу занемарити ове препоруке ако изгледају превише строге или превише опуштене. Други РАИ утичу на широк спектар судских одлука, укључујући одлуке о казни и условну казну и условни отпуст.

Алгоритамски РАИ имају потенцијал да донесу доследност, тачност и транспарентност у судске одлуке. На пример, Јунг ет ал. симулирао употребу једноставног РАИ-а у стилу контролне листе који је узимао у обзир само старост оптуженог и њихов број ранијих неуспеха који се појављују.8Аутори су приметили да судије у неоткривеној јурисдикцији имају веома различите стопе ослобађања (од отприлике 50% до скоро 90% ослобођених појединаца). Аутори су открили да би судије користиле предложени модел у стилу контролне листе за одређивање пуштања на слободу пре суђења, одлуке би биле конзистентније у свим случајевима и да би притвориле 30% мање оптужених без одговарајућег пораста недоличног понашања пре суђења. Друге студије су пронашле додатне доказе да статистички модели доследно надмашују људске одлуке без помоћи.9За разлику од непрозирности традиционалног људског доношења одлука, транспарентна природа модела у стилу контролне листе, попут оног који су предложили Јунг ет ал., такође би омогућила судовима да отворено опишу како израчунавају ризик.10Ове предности — заједно са општим уверењем да важне одлуке треба да буду усидрене у подацима — приморале су многе јурисдикције широм земље да примене РАИ.



ЦОМПАСС РАИ

Паралелно са њиховом експанзијом широм земље, РАИ су такође постајали све контроверзнији. Критичари су се усредсредили на четири главна проблема са РАИ-има: њихов недостатак индивидуализације, одсуство транспарентности под тврдњама о пословној тајни, могућност пристрасности и питања њиховог правог утицаја.ЈеданаестСлучај Врховног суда Висконсина из 2016. Лоомис против Висконсина , ухватио у коштац са многим од ових питања. Подносилац петиције, Ериц Лоомис, изнео је неколико аргумената против употребе РАИ-а под називом Профилирање управљања поправним преступницима за алтернативне санкције (ЦОМПАС) у својој одлуци о казни.12

Прво, Лумис је тврдио да његова казна није индивидуализована. Уместо тога, он је тврдио да је то обавештено историјским групним тенденцијама за недолично понашање, како је оценио ЦОМПАС. Суд се није сложио, тврдећи да одлуку судије није одредио искључиво ЦОМПАС, избегавајући Лумисову забринутост због индивидуализације. Иако је суд направио ову разлику, вреди напоменути да и људи и алгоритми уче из историјског понашања. Предвиђање ризика за дату особу — било од судије или РАИ — је, као резултат, усидрено у историјском понашању сличних појединаца.

Друго, Лумис је тврдио да је компанија која је креирала ЦОМПАС одбила да објави довољно детаља о томе како је алгоритам израчунао његов резултат ризика, спречавајући га да испита тачност свих информација представљених приликом изрицања пресуде. Многи РАИ могу тачно да објасне како долазе до својих одлука, што је предност у односу на традиционално људско доношење одлука. Међутим, комерцијални продавци који продају РАИ често крију ове детаље иза тврдњи о пословној тајни.13Иако се суд није стриктно сложио са Лумисом — тврдећи да је било довољно посматрати инпуте и резултате ЦОМПАС-а — постоје убедљиви разлози за транспарентност и тумачење у тако тешким контекстима.

На пример, иако Лумис није знао пуну структуру модела, знао је да је у њему укључен род као фактор, и тврдио је да је то дискриминација. Суд се није сложио, истичући да је укључивање пола у модел помогло да се повећа његова тачност. Ово прати чињеницу да су, с обзиром на сличне кривичне историје, стопе рецидивизма статистички ниже за жене него за мушкарце.14У сваком случају, Лоомисово знање о коришћењу рода у моделу омогућило му је да оспори његово укључивање, што је пример како транспарентност у РАИ може помоћи заинтересованим странама да боље разумеју овај процес доношења одлука високих улога.

Потенцијална дискриминација и РАИ проблеми

Друге оптужбе за дискриминацију подигнуте су против РАИ-а (и алгоритама машинског учења уопште), уз напомену да они могу продужити и погоршати постојеће предрасуде у систему кривичног правосуђа.петнаестМожда се најзапаженија тврдња појавила у чланку ПроПублица из 2016. о употреби ЦОМПАС-а уз одлуке о притвору у округу Бровард, Флорида.16У чланку је закључено да је ЦОМПАС био пристрасан јер је имао лошије резултате на једној мери учинка (стопе лажних позитивних резултата) за црне особе у поређењу са белцима. Међутим, други истраживачи су приметили значајну статистичку грешку у налазима ПроПублица: они се могу математички објаснити разликама у основним стопама прекршаја за сваку расу без потребе за пристрасним моделом.17Када истраживачи примене традиционалну меру праведности модела – да ли појединци са истим резултатом ризика поново чине преступ по истој стопи, без обзира на расу – докази о расној дискриминацији нестају.18

Чак и даље, недостатак доказа не гарантује да дискриминација изостаје, а ове тврдње треба схватити озбиљно. Један од могућих извора пристрасности који највише забрињава може произаћи из историјских исхода које РАИ научи да предвиди. Ако су ови исходи производ непоштене праксе, могуће је да ће било који изведени модел научити да их реплицира, а не да предвиђа прави основни ризик за недолично понашање. На пример, иако се процењује да расне групе конзумирају марихуану по приближно једнаким стопама, Црни Американци су историјски осуђени за поседовање марихуане по већим стопама.19Модел који учи да предвиђа осуде за поседовање марихуане на основу ових историјских записа неправедно би оценио црне Американце као већи ризик, иако су истинске стопе употребе исте у свим расним групама. Пажљив одабир исхода који одражавају стварне основне стопе криминала може избјећи овај проблем. На пример, мање је вероватно да ће модел који предвиђа осуде за насилне злочине бити пристрасан, јер се чини да осуде за насилне злочине одражавају стварне основне стопе виктимизације.двадесет

[А] недостатак доказа не гарантује одсуство дискриминације и ове тврдње треба схватити озбиљно.

Многи би тврдили да је чист фокус на алгоритамско понашање превише ограничен; да је важније питање како РАИ утичу на судске одлуке у пракси, укључујући било какву разлику у утицајима према раси. Да бисмо илустровали ову тачку, корисно је размислити о два могућа екстрема. Можда нећемо бити толико забринути због нетачног РАИ-а ако га судије категорички игноришу и не утиче на њихово понашање. С друге стране, савршено поштен РАИ може бити разлог за забринутост ако га судије селективно користе да оправдају казнени третман заједница обојених боја.

Иако су многе студије симулирале утицај РАИ-а, истраживања о њиховој употреби у стварном свету су ограничена. Студија РАИ-а у Вирџинији између 2012-2014 сугерише да се недолично понашање пре суђења и затварање могу смањити истовремено.двадесет једанДруга студија је испитала примену ПСА из 2014. у округу Мекленбург, Северна Каролина, и открила да се његова примена поклопила са већим стопама ослобађања, док су стопе недоличног понашања пре суђења остале непромењене.22Трећа студија је помно испитала примену РАИ-а широм Кентакија између 2009-2016, проналазећи ограничене доказе да је алат смањио стопу затварања.23Студија је открила да судијска употреба РАИ-а није неједнако утицала на исходе у расним групама.

Препоруке

Свако, укључујући руководиоце, особље за планирање, управљање, анализу и развој софтвера, који разматра употребу алгоритама у кривичном правосуђу – или било који утицајни контекст шире – треба да обрати пажњу на ове бриге када планира политике које користе алгоритме, посебно оне које управљају одлукама у кривичном правосуђу.

Прво, креатори политике треба да очувају људски надзор и пажљиву дискрецију приликом имплементације алгоритама машинског учења. У контексту РАИ-а, увек је могуће да неуобичајени фактори могу утицати на вероватноћу да се неко не понаша. Као резултат тога, судија мора задржати могућност да поништи препоруке РАИ-а, иако ово дискреционо право може смањити тачност и доследност. Један од начина да се уравнотеже ови конкурентни приоритети је да се захтева детаљно објашњење сваки пут када судија одступи од препоруке РАИ. Ово би подстакло судије да свесно мотивишу своју одлуку и обесхрабрило би произвољна одступања од препорука РАИ-а. Уопштено говорећи, људи увек треба да донесу коначну одлуку, а свака одступања захтевају објашњење и одређени напор од стране судије.

колико округа је Трамп победио?

Креатори политике треба да сачувају људски надзор и пажљиву дискрецију када примењују алгоритаме машинског учења.

Друго, сваки алгоритам који се користи у контексту политике са високим улозима, као што је кривична казна, треба да буде транспарентан. Ово осигурава да свака заинтересована страна може тачно разумети како се утврђује ризик, што је изразита предност у односу на људске процесе доношења одлука. На овај начин, транспарентност може помоћи у успостављању поверења, и представља признање улоге коју ови алати имају у консеквентним одлукама које имају утицај.

Треће, алгоритме и податке који се користе за генерисање њихових предвиђања треба пажљиво испитати у погледу потенцијала да би било која група била неправедно оштећена резултатима. Судије, тужиоци и научници података треба да критички испитају сваки елемент података који се дају алгоритму – посебно предвиђене исходе – да би разумели да ли су ови подаци пристрасни против било које заједнице. Поред тога, предвиђања модела би требало да се тестирају како би се осигурало да појединци са сличним оценама ризика поново почине кривична дела са сличним стопама. Коначно, употреба модела који се могу тумачити може помоћи да се покаже да се резултати које генерише сваки модел чини праведним и да су у великој мери у складу са експертизом у домену о томе шта представља ризик.

Четврто, научници података би требало да раде на изградњи алгоритама ризика следеће генерације који предвиђају смањење ризика узроковано интервенцијама подршке. На пример, тренутни РАИ закључују само ризик од недоличног понашања ако је особа пуштена без подршке. Они не узимају у обзир утицај интервенција подршке – као што су подсетници на текстуалне поруке о датуму суда – иако могу да утичу на ризик појединца од недоличног понашања. Замислите појединца за кога традиционални РАИ предвиђа малу вероватноћу појављивања пред судом ако буде пуштен без подршке. Само са овом оценом, судија би вероватно одлучио да затвори особу како би осигурао да се појави на суду. Међутим, код РАИ следеће генерације, судија би такође могао видети да подсетници на текстуалне поруке значајно повећавају вероватноћу појављивања појединца. Уз ове додатне информације, судија може уместо тога одлучити да ослободи особу и упише је у подсетнике. Алгоритми ризика следеће генерације који процењују утицај интервенција подршке могли би да подстакну судије и друге доносиоце одлука да избегавају значајне друштвене и финансијске трошкове казнених акција у корист хуманијих алтернатива.

Коначно – и можда најважније – алгоритме треба проценити како се имплементирају. Могуће је да ће учесници у било ком компликованом систему реаговати на неочекиване начине на нову политику (нпр. селективним коришћењем предвиђања РАИ за кажњавање заједница боја). С обзиром на овај ризик, креатори политике треба да пажљиво прате понашање и исходе како се сваки нови алгоритам уводи и треба да наставе са рутинским праћењем када се програм успостави да би се разумели дугорочнији ефекти. Ове студије ће на крају бити кључне у процени да ли алгоритамске иновације стварају утицаје које теже да постигну.

РАИ су само један алгоритамски алат који се данас разматра. Одвојени изазови окружују употребу других алгоритама. Најважније, агенције за кривично право морају да објасне како планирају да заштите приватност и слободу појединца у коришћењу препознавања лица, јавних ДНК база података и других нових облика надзора. Али ако се користе на одговарајући начин и пажљиво, алгоритми могу значајно побољшати утицајне одлуке, чинећи их конзистентнијим и транспарентнијим за све заинтересоване стране. Као и код сваке нове политике или праксе, ови напори морају укључивати континуирану евалуацију и побољшање како би се осигурало да њихово усвајање генерише ефективне и праведне резултате током времена.