Sztuczna inteligencja pomoże prawnikom?
System sztucznej inteligencji opracowany przez specjalistów z University College London, University of Sheffield i University of Pennsylvania prawidłowo przewidział wyroki sądowe, jakie zapadły w setkach spraw. Wspomniany system analizował sprawy toczące się przed Europejskim Trybunałem Praw Człowieka, a następnie w 79% przypadków prawidłowo przewidział werdykt.
To oznacza, że sztuczna inteligencja jest w stanie nauczyć się kwestii związanych z prawem. Nie uważamy, by w najbliższym czasie sztuczna inteligencja mogła zastąpić sędziów i prawników. Sądzimy jednak, że może ona przydać się w poszukiwaniu wzorców, które prowadzą do wydania konkretnych wyroków - mówi doktor Nikolaos Alertas z University College London. Jego zdaniem AI może stać się użytecznym narzędziem do wstępnej analizy potencjalnych naruszeń Europejskiej Konwencji Praw Człowieka. Algorytmy takie mogłyby pomóc zespołom prawnym, które analizują podejrzane czyny w celu podjęcia decyzji, czy powinny być one rozpatrywane przez Trybunał Praw Człowieka.
Wspomniany system podczas testów otrzymał do przeanalizowania 584 sprawy, które w przeszłości rozpatrywał Europejski Trybunał Praw Człowieka. Zadaniem systemu było stwierdzenie, czy sąd orzekł, że doszło bądź nie do naruszenia Europejskiej Konwencji Praw Człowieka. System popełnił pomyłki na przykład tam, gdzie w dwóch podobnych sprawach zapadły różne wyroki. Może to świadczyć o tym, że nie był w stanie zorientować się w subtelnościach prawnych, możne jednak pokazywać, w system prawny wpisana jest subiektywna ocena.
Sztuczna inteligencja miała do wyboru sprawy związane z trzema podstawowymi artykułami Konwencji Praw Człowieka, które dotyczyły stosowania tortur, prawa do uczciwego procesu i poszanowania prywatności.
Teraz naukowcy chcą przetestować swój system na szerszym wachlarzu spraw, niewykluczone też, że dołączą do danych dostarczanych maszynie również zeznania świadków czy notatki prawników.
Komentarze (4)
TrzyGrosze, 25 października 2016, 08:40
- w 100% przypadków przewidział werdykt sprawiedliwy.
- w 79% przypadków przewidział werdykt zgodny z ludzkim.
thikim, 25 października 2016, 09:07
Oj. Ale tam jest zupełnie inny system prawny. I tam mogło być 79 % werdykt sprawiedliwy. Programiści też nie są nieomylni. Tak im się tylko wydaje Zapewne prawda leży pomiędzy tymi 79 a 100 %.
W Polsce to tak ciężko by było. Bardzo ciężko. Tu by raczej maszyna mogła trafić parę procent.
Batonik - pół roku więzienia.
Gwałt zbiorowy - zawiasy
Tort w sędzinę - 1 rok więzienia.
Wyłudzenia na miliony - zawiasy.
Z 15 wyroków w zawieszeniu bohatera Amber Gold na łącznie z 25 lat więzienia - zero w więzieniu (trochę mniej miał ale i tak kosmiczne ilości - 6 zawiasów na 9 lat 4 miesiące łącznie w zawieszeniu na 22 lata).
Rekordzista miał 27 wyroków w zawieszeniu Żadna maszyna tego nie byłaby w stanie przewidzieć.
W Polsce program by musiał uwzględniać pokrewieństwo z posłami PSL
TrzyGrosze, 25 października 2016, 10:00
thikim, 25 października 2016, 10:27
Bo jest. Osobiście jestem temu przeciwny. I dlatego szczerze mówiąc wolałbym sztuczną AI z nadzorem ludzkim. Ludzie byliby jedynie od akceptowania wyroku.
Co by to dało?
Oszczędność czasu a z czasem obecnie największy jest problem. Są sprawy które toczą się tak długo że już wnukowie w nich uczestniczą zamiast dziadów i ojców
Wystarczy że AI osiągnęła by 90 % akceptacji wyroków przez sądy.
Zresztą eSąd to jest takie AI (tylko że farbowane )
BTW. Przy poziomie skomplikowania spraw w Polsce AI nie dałoby rady
Bo skąd AI ma wiedzieć co to jest ulica jeśli Polacy (w szczególności sędziowie) tego nie wiedzą
To rodzi przypuszczenie że w analiza spraw przez AI w tej wiadomości polegała na porównaniu przygotowanych przez ludzi danych.