Lidovky.cz

Počítač v roli soudce. Odvádí lepší práci než lidský mozek

Věda

  5:33
Speciální počítačové programy pomáhají americkým soudcům posoudit šance pachatelů na nápravu. A podle nejnovější studie odvádějí lepší práci než lidský mozek.
Soudcovské kladívko (ilustrační foto)

Soudcovské kladívko (ilustrační foto) foto: Shutterstock

Soudci mohou poslat zločince k výkonu trestu ve věznicích s různě tvrdým režimem. Zároveň mají možnost propustit usvědčeného pachatele s podmínečným trestem. Na jedné straně tedy hrozí, že odsouzený v podmínce bude páchat další zločiny. Na druhé straně může za mřížemi skončit člověk, pro kterého je prohřešek proti zákonu lekcí na zbytek života a nikdy už nic podobného neprovede.

Vědci vyvíjí stínicí materiály před elektromagnetickým zářením

Soudce by měl svými verdikty chránit společnost před těmi, kdo by v kriminálním jednání pokračovali, a zároveň umožnit polepšení těm, u kterých jsou vyhlídky, že nabídnutou šanci nepromarní.

Rasistický počítač?

Rozhodování soudců není jednoduché a nabízí se otázka, zda by jim nepomohly počítače. Americkým soudcům už delší dobu algoritmy napovídají, jak riskantní je podmíněný trest u konkrétního obžalovaného. Systémů pro počítačovou „předpověď recidivy“ je tam v provozu několik desítek. Názory na to, jak dobrou práci odvádějí, se různí.

Umělá inteligence má bránit infekcím

Řada studií dokázala, že v předvídání recidivy násilných trestných činů jsou počítače úspěšnější než profesionální soudci. Zaznívají však i kritické hlasy. V roce 2016 analyzovali novináři více než 7000 verdiktů, které vynesli soudci „po poradě“ s algoritmem Compas, a došli k závěru, že program je „rasistický“.

Afroameričany označoval za potenciální recidivisty skoro dvakrát častěji než bělochy. Přitom běloši doporučení algoritmem k podmínečnému trestu páchali zločiny častěji než na podmínku propuštění Afroameričané. Tahle analýza se ale ukázala jako neprofesionální a neobstála.

Laici na roveň algoritmům

Informatiky Julii Dresselovou a Hanyho Farida z americké školy Dartmouth College na sporu o nestrannost systému Compas zaujalo, že zastánci počítačových odhadů považovali algoritmy za spolehlivější než úsudek lidí. „Nenašla jsem žádný výzkum, o který by se tato tvrzení mohla opřít,“ říká Julia Dresselová a rozhodla se Compas otestovat.

Společně s Faridem získala Dreselová náborem přes internet čtyři stovky dobrovolníků z řad naprostých právnických laiků. Každému nechali vědci posoudit sklony k recidivitě u čtyřiceti odsouzených, o nichž bylo známo, zda se v podmínce dopustili dalšího zločinu. Algoritmus Compas hodnotí riziko recidivy na základě 137 údajů o posuzované osobě. Dobrovolníci dostali o každém odsouzenci jen sedm základních údajů. Na jejich základě určili správně recidivisty v 63 procentech případů. Compas se strefil v 65 procentech případů. Neukázal se tedy jako výrazně spolehlivější.

„A to jsme využili laiky s omezeným množstvím informací,“ zdůraznil Hany Farid.

Vědci zveřejnili mikroskopické snímky koronaviru, kvůli testování ho uměle pěstují

Soudce má o obžalovaném k dispozici obrovské množství informací. Zná například výpovědi svědků, argumentaci advokátů atd. Jak ale upozornil Sharad Goel ze Stanfordovy univerzity, záplava informací soudcům rozhodování neusnadní. Naopak. Nadmíra informací má často za následek, že se soudci mýlí. Tím, že Dresselová s Faridem vybrali ze záplavy dat malý počet klíčových údajů, dobrovolníkům rozhodování výrazně ulehčili. Ti mohli nakonec odhadovat sklony k recidivě lépe než soudci zahlcení informacemi.

„Tahle studie by se neměla interpretovat tak, že algoritmy nic nepřinášejí,“ říká Goel o práci Dresselové a Farida. „Měli bychom z ní vyvodit, že když necháme lidi, aby se soustředili na skutečně důležité věci, pak mohou i laici soupeřit s počítačovými algoritmy.“

Počítače mají opět navrch

Do bouřlivé diskuse o využívání algoritmů pro stanovení pravděpodobnosti recidivy v americkém soudnictví nyní zasáhl tým vedený Jennifer Skeemovou z Kalifornské univerzity v Berkeley. Ve studii publikované ve vědeckém časopise Science Advances Skeemová s kolegy dokazuje, že v reálných podmínkách jsou odhady algoritmů podstatně spolehlivější než rozhodování člověka.

Skeemová použila stejný soubor odsouzených, s jakým podnikli své experimenty Dresselová s Faridem. Na rozdíl od svých předchůdců se ale pokusila postavit dobrovolníky do situací, které se více blíží skutečnému rozhodování soudce. Poskytla jim například víc údajů o pachatelích. Oproti experimentu Dresselové a Farida jich přidala deset.

Bez zpětné vazby

Další přiblížení realitě spočívalo v tom, že Skeemová odepřela dobrovolníkům „zpětnou vazbu“. V pokusech Dresselové a Farida se dobrovolníci po každém vyneseném soudu dozvěděli, jestli tipovali recidivu posuzované osoby správně, nebo se spletli. Soudce ale takovou bezprostřední kontrolu u svých verdiktů postrádá. Nemusí se nikdy dozvědět, že pachatel, kterého pustil na podmínku, spáchal vzápětí závažný trestný čin. Třeba jen proto, že se zločinec přestěhoval na druhý konec Spojených států. A už vůbec nemá šanci zjistit, že se v odsouzenci nespletl a ten vede spořádaný život.

Výsledky studie Jennifer Skeemové hovoří jasnou řečí. Algoritmus Compas určil recidivitu s úspěšností 89 procent. Dobrovolníci předvídali recidivu pachatelů správně v 60 procentech případů. Podobně dopadly testy jiného algoritmu, který se nemýlil v 80 procentech případů. Počítač byl tedy vždy výrazně úspěšnější než člověk.

Autor:
zpět na článek


© 2024 MAFRA, a.s., ISSN 1213-1385 © Copyright ČTK, Reuters, AFP. Publikování nebo šíření obsahu je zakázáno bez předchozího souhlasu.