Algoritmos identificam infratores reincidentes melhor do que juízes

A IA pode fazer melhores previsões sobre crimes futuros?

Algoritmos identificam infratores reincidentes melhor do que juízesFonte da imagem: Andrey_Popov / Shutterstock
  • Um novo estudo considera as previsões algorítmicas de reincidência mais precisas do que as autoridades humanas.
  • Os pesquisadores estão tentando construir testes de IA que espelhem com precisão as deliberações do mundo real.
  • Que nível de confiabilidade devemos exigir de IA nas sentenças?

É hora de pré-crime novamente. (Ver Relatório Minoritário .)



Quando juízes, autoridades correcionais e juntas de liberdade condicional estão tomando decisões sobre sentenças, supervisão e liberação, eles estão essencialmente tentando perscrutar o futuro de um infrator para avaliar o potencial da pessoa para reincidência. Para ajudar a orientar essas determinações - e sem dúvida influenciadas por nossa paixão contemporânea pela inteligência artificial - as autoridades estão cada vez mais se voltando para os instrumentos de avaliação de risco (RAIs) com o pressuposto de que sua IA pode identificar com mais precisão aqueles que provavelmente são infratores reincidentes.



Uma nova estudar dentro Avanços da Ciência confirma mais rigorosamente que os julgamentos algorítmicos maio na verdade, ser mais preciso do que os humanos. No entanto, é preocupante que, considerando os riscos envolvidos - crimes futuros, a liberdade do réu ou a continuação do encarceramento - eles ainda não são confiáveis suficiente para garantir que a justiça seja realmente feita e que erros trágicos possam ser evitados.

RAIs, NG?

Fonte da imagem: Andrey Suslov / Shutterstock



O novo estudo, liderado por cientista social computacional Sharad Goel da Universidade de Stanford, é em certo sentido uma resposta a um trabalho recente pela especialista em programação Julia Dressel e pela especialista em imagem digital Hany Farid. Naquela pesquisa anterior, os participantes tentaram prever se algum dos 50 indivíduos cometeria ou não novos crimes de qualquer tipo nos próximos dois anos, com base em breves descrições de seus históricos de caso. (Nenhuma imagem ou informação racial / étnica foi fornecida aos participantes para evitar uma distorção dos resultados devido a vieses relacionados.) A taxa média de precisão alcançada pelos participantes foi de 62%.

que é a maior fé do mundo

Os mesmos casos de criminosos e histórias de casos também foram processados ​​por meio de um RAI amplamente usado, chamado COMPAS, para 'Perfil de Gerenciamento de Criminosos Correcional para Sanções Alternativas'. A precisão de suas previsões era quase a mesma: 65%, levando Dressel e Farid a concluir que o COMPAS 'não é mais preciso ... do que as previsões feitas por pessoas com pouca ou nenhuma experiência em justiça criminal'.

Dando uma segunda olhada

Goel sentiu que dois aspectos do método de teste usado por Dressel e Farid não reproduziam suficientemente as circunstâncias em que os humanos são chamados a prever a reincidência durante a sentença:



  1. Os participantes desse estudo aprenderam como melhorar suas previsões, da mesma forma que um algoritmo, pois receberam feedback sobre a precisão de cada prognóstico. No entanto, como Goel aponta, 'Em ambientes de justiça, esse feedback é extremamente raro. Os juízes podem nunca descobrir o que acontece com os indivíduos que eles sentenciam ou para quem pagaram fiança. '
  2. Os juízes, etc., também costumam ter muitas informações em mãos ao fazerem suas previsões, e não resumos curtos nos quais apenas as informações mais relevantes são apresentadas. No mundo real, pode ser difícil determinar quais informações são mais relevantes quando há, sem dúvida, muitas informações disponíveis.

Ambos os fatores colocam os participantes em pé de igualdade com um RAI do que estariam na vida real, talvez respondendo pelos níveis semelhantes de precisão encontrados.

Para tanto, Goel e seus colegas realizaram várias de suas próprias tentativas, ligeiramente diferentes.

O primeiro experimento espelhou de perto o de Dressel e Farid - com feedback e breves descrições de casos - e de fato descobriu que humanos e COMPAS tiveram um desempenho quase igual. Outro experimento pediu aos participantes para prever a ocorrência futura de violento crime, não qualquer crime, e novamente as taxas de precisão eram comparáveis, embora muito mais altas. Os humanos pontuaram 83% enquanto o COMPAS alcançou uma precisão de 89%.

quantas super bacias os bucaneiros ganharam

Quando o feedback dos participantes foi removido, no entanto, os humanos ficaram muito atrás do COMPAS em precisão, caindo para cerca de 60%, em oposição aos 89% do COMPAS, como Goel supôs que ficariam.

Finalmente, os humanos foram testados em uma ferramenta RAI diferente, chamada LSI-R. Nesse caso, ambos tiveram que tentar prever o futuro de um indivíduo usando uma grande quantidade de informações do caso, semelhante ao que um juiz pode ter que percorrer. Novamente, o RAI superou os humanos na previsão de crimes futuros, 62% a 57%. Quando solicitados a prever quem acabaria voltando para a prisão por seus futuros delitos, os resultados foram ainda piores para os participantes, que acertaram apenas 58% das vezes, em oposição a 74% para o LSI-R.

Bom o bastante?

Fonte da imagem: klss / Shutterstock

Goel conclui, 'nossos resultados apoiam a afirmação de que avaliações de risco algorítmicas podem muitas vezes superar as previsões humanas de reincidência.' Claro, esta não é a única questão importante. Também há o seguinte: a IA ainda é confiável o suficiente para fazer sua previsão valer mais do que a de um juiz, autoridade correcional ou membro do conselho de liberdade condicional?

Notícias de ciência perguntou Farid, e ele disse não. Quando questionado sobre como ele se sentiria em relação a um RAI que poderia ser considerado certo 80% das vezes, ele respondeu, 'você tem que se perguntar, se você está errado 20% das vezes, você está disposto tolerar isso? '

À medida que a tecnologia de IA melhora, podemos um dia atingir um estado em que os RAIs sejam confiáveis ​​e precisos, mas ninguém está afirmando que ainda estamos lá. Por enquanto, então, o uso de tais tecnologias em um papel consultivo para autoridades encarregadas de tomar decisões de condenação pode fazer sentido, mas apenas como mais uma 'voz' a ser considerada.

Idéias Frescas

Categoria

Outro

13-8

Cultura E Religião

Alquimista Cidade

Livros Gov-Civ-Guarda.pt

Gov-Civ-Guarda.pt Ao Vivo

Patrocinado Pela Fundação Charles Koch

Coronavírus

Ciência Surpreendente

Futuro Da Aprendizagem

Engrenagem

Mapas Estranhos

Patrocinadas

Patrocinado Pelo Institute For Humane Studies

Patrocinado Pela Intel The Nantucket Project

Patrocinado Pela Fundação John Templeton

Patrocinado Pela Kenzie Academy

Tecnologia E Inovação

Política E Atualidades

Mente E Cérebro

Notícias / Social

Patrocinado Pela Northwell Health

Parcerias

Sexo E Relacionamentos

Crescimento Pessoal

Podcasts Do Think Again

Patrocinado Por Sofia Gray

Vídeos

Patrocinado Por Sim. Cada Criança.

Geografia E Viagens

Filosofia E Religião

Entretenimento E Cultura Pop

Política, Lei E Governo

Ciência

Estilos De Vida E Questões Sociais

Tecnologia

Saúde E Medicina

Literatura

Artes Visuais

Lista

Desmistificado

História Do Mundo

Esportes E Recreação

Holofote

Companheiro

#wtfact

Recomendado