Prévia do material em texto
276 Fabio G. Cozman | Ary Plonski| Hugo Neri de (Barocas et al., 2017). Como se pode ver, o poder de decisão do programador é grande e nem sempre foram previstos, o que au- menta o grau de subjetividade inscrito no algoritmo e a incerteza sobre seu percurso e resultados. Problema semelhante se coloca também para os aplicativos na área da saúde. Embora os algoritmos de hoje sejam mais po- tentes e muito diferentes do passado, que davam apenas respos- tas mecânicas ou pré-determinadas a questões de saúde, a ausên- cia de clareza sobre a escolha dos critérios utilizados para guiar os modelos e a difícil interpretação do resultado final são obstáculos à sua difusão e aceitação tanto por médicos quanto por pacientes, principalmente diante da potencial adoção de terapias invasivas e de alto risco. Se for adicionado a essas dificuldades o reconhecimento de que a precisão dos algoritmos também depende do tipo de meto- dologia e das técnicas utilizadas, pode-se compreender por que conceitos como explicabilidade passaram a se posicionar, com a transparência, no centro das preocupações de DL. Ainda mais que pesquisas indicam que o viés humano reproduzido nos dados pode ser amplificado ao longo do processo de aprendizagem dos algoritmos, o que torna o mundo real ainda mais desequilibrado. Não foi à toa que pesquisas da Yale Law School (2017), cons- cientes das distorções da DL, recomendaram com sabedoria: “Não precisamos trazer as desigualdades estruturais do passado para o futuro que estamos criando”. A explicabilidade, em contraste com a metáfora da caixa-pre- ta, orienta o funcionamento dos algoritmos para a transparência de seus procedimentos, desde sua concepção à operação final jun- to ao usuário, tornando o percurso do raciocínio rastreável. Com a auditabilidade, o usuário ou os agentes públicos podem revisar os processos decisórios dos algoritmos, testá-los e corrigi-los quan- do necessário.