Revisão de decisões automatizadas

Este artigo foi publicado primeiro em outro site. Vá para a fonte

A Lei Geral de Proteção de Dados Pessoais (LGPD) trouxe uma série de direitos aos titulares de dados. Embora alguns deles já existissem em outros ordenamentos jurídicos brasileiros (a exemplo do direito de acesso previsto no Código de Defesa do Consumidor), outros são efetivamente novos e acarretarão desafios também antes inexistentes. Um dos direitos cujo exercício será (ou seria) mais complexo é o previsto no artigo 20 da Lei, que garante ao titular a possibilidade de solicitar a revisão de decisões tomadas unicamente com base no tratamento automatizado de seus dados pessoais.

Referido dispositivo passou por constantes mudanças entre a aprovação da LGPD, em 14 de agosto de 2018, e a promulgação da Lei nº 13.853/2019, em 8 de julho de 2019, que consolidou o que deve ser a redação definitiva da LGPD, salvo na hipótese de os vetos do Presidente Jair Bolsonaro serem derrubados pelo Congresso Nacional.

A grande controvérsia acerca do direito de revisão das decisões automatizadas reside em quem será responsável por essa revisão: um ser humano ou uma máquina.

O texto original da LGPD previa que a revisão deveria ser feita por uma pessoa natural, critério que foi removido quando da edição da Medida Provisória nº 869/2018 pelo então Presidente Michel Temer. A condicionante foi novamente incluída no texto pelo Projeto de Lei de Conversão nº 7/2019, mas acabou sendo vetada pelo atual Chefe do Executivo, sob o argumento de que a revisão humana contrariaria o interesse público, ao inviabilizar o modelo de negócio de muitas empresas.

A argumentação utilizada pela Presidência para o veto é curiosa e faz parecer que o Brasil tem uma interpretação muito específica sobre o que inviabiliza modelos de negócios, mais perspicaz até do que o entendimento de nações desenvolvidas como os Estados membros da União Europeia. No âmbito do GDPR, o regulamento que trata sobre a proteção de dados pessoais na União Europeia, os titulares de dados possuem o direito de não estarem sujeitos a decisões automatizadas que lhes acarretem efeitos jurídicos ou similares, salvo em casos excepcionais. E nesses casos excepcionais, os titulares ainda têm direito de solicitar intervenção humana para expressar seus pontos de vista e contestar eventuais decisões.

Não se questiona o fato de que a obrigação de a revisão das decisões automatizadas ser realizada por pessoais naturais traria maiores complexidades e custos elevados aos controladores de dados pessoais. Por outro lado, qual é efetivamente a valia de uma disposição legal que garante o direito de revisão a ser conduzido pelo próprio algoritmo que chegou àquela decisão num primeiro momento?

Digamos que você solicite um empréstimo bancário diretamente pelo site de uma financeira. Assim que você termina de preencher os dados solicitados, em questão de minutos é possível saber se seu pedido foi aprovado, parcialmente aprovado ou negado. Uma sequência de parâmetros estatísticos, com base nas suas informações e nos documentos que foram obtidos sobre o seu perfil, é a responsável pela decisão de sua aprovação (ou reprovação) de crédito. Com o descarte da intervenção humana nessa operação, permitindo-se que a revisão da decisão seja tomada pela máquina, qual é a chance de uma segunda rodada do mesmo algoritmo, com as mesmas informações, chegar em outro resultado que não o que foi inicialmente indicado? Muito provavelmente, zero.

A máxima de Albert Einstein é aplicável a esse caso concreto: loucura é continuar fazendo exatamente a mesma coisa e esperar resultados diversos. Pode muito bem ser que a revisão realizada por uma pessoa natural também leve a exatamente o mesmo resultado, assim como o algoritmo chegaria. Contudo, exigir que um ser humano faça a revisão torna o processo mais benéfico ao titular de dados, que terá a possibilidade de interagir com uma pessoa natural e fornecer novas informações que talvez a máquina não conseguisse interpretar sem o auxílio humano.

Se você tem em mãos uma decisão judicial, transitada em julgado, que determina que um registro em seu desfavor no SERASA foi realizado indevidamente e deve ser baixado, qual a chance de a máquina identificar esse fato sozinha, sem intervenção humana para retirar aquele cadastro desabonador de seu perfil de crédito? Se nas linhas do código de programação do algoritmo não houver qualquer menção à consideração de decisões judiciais na análise de crédito, o upload desse arquivo no sistema, para ser avaliado isoladamente pela máquina, seria irrelevante, ainda que obviamente devesse influenciar na tomada de decisão da instituição financeira.

O texto que foi vetado, inclusive, já considerava a necessidade de serem regulamentados os casos em que a revisão precisaria ser realizada por uma pessoa natural, justamente para evitar empecilhos incontornáveis à inovação e ao desenvolvimento de startups e fintechs.

Essa condição foi expressamente abordada pelo relatório legislativo que deu origem ao Projeto de Lei de Conversão nº 7/2019. Em outras palavras, o envolvimento de uma pessoa natural não seria obrigatório em todos os casos, mas somente em circunstâncias previstas posteriormente pela Autoridade Nacional de Proteção de Dados, de acordo com as características específicas do controlador e das atividades de tratamento de dados pessoais.

Mais uma vez, a LGPD se afasta das previsões contidas no GDPR, sua inegável fonte de inspiração. Se essa distinção entre as legislações terá algum impacto na futura decisão de adequação do Brasil, aos olhos da Comissão Europeia, como um país com leis de proteção de dados comparáveis às da União Europeia, resta aguardar para ver. De uma forma ou de outra, retirar do texto da Lei a possibilidade da intervenção humana nas decisões automatizadas, em todos os casos, pode ser um tiro no pé.

Rolar para cima
CONSULTA ADVOGADO
Consulte um advogado agora !
CONSULTE UM ADVOGADO AGORA!