Exportar este item: EndNote BibTex

Use este identificador para citar ou linkar para este item: http://www.bdtd.uerj.br/handle/1/18276
Tipo do documento: Tese
Título: Revisão de decisões automatizadas na Lei Geral de Proteção de Dados Pessoais
Título(s) alternativo(s): Right to review of automated decision-making in the Brazilian General Data Protection Law
Autor: Korkmaz, Maria Regina Detoni Cavalcanti Rigolon 
Primeiro orientador: Schreiber, Anderson
Primeiro coorientador: Negri, Sergio Marcos Carvalho de Ávila
Primeiro membro da banca: Tepedino, Gustavo José Mendes
Segundo membro da banca: Souza, Carlos Affonso Pereira de
Terceiro membro da banca: Mulholland, Caitlin Sampaio
Quarto membro da banca: Branco Júnior, Sérgio Vieira
Resumo: A tese tem por fim analisar, em uma perspectiva funcional, o regime jurídico da revisão de decisões automatizadas, previsto pela Lei Geral de Proteção de Dados Pessoais (Lei n. 13.709 de 2018, acrônimo “LGPD”). A partir de Stefano Rodotà, notadamente sobre o diagnóstico da “ditadura dos algoritmos”, com a necessidade de desenvolver prerrogativas para a proteção da pessoa, adotou-se o método dedutivo, de caráter qualitativo e em atenção às premissas do direito civil-constitucional para investigar se a revisão de decisões automatizadas, tal como concebida na LGPD, detém bases normativas de um mecanismo de tutela substancial. A evolução que se desenhou da privacidade até a concepção de proteção de dados pessoais como direito fundamental autônomo foi abordada. Ainda, a necessidade de apreensão do fenômeno a partir de uma perspectiva coletiva, considerando o cenário de opacidade e de assimetria informacional e de poder entre titulares de dados e agentes de tratamento, foi apresentada a partir da dimensão coletiva da privacidade e da proteção de dados pessoais. A insuficiência da categoria de dados sensíveis foi apresentada com o propósito de demonstrar que a proteção da pessoa, no campo das decisões automatizadas, demanda progressivo escrutínio não apenas do input de dados, mas, sobretudo, de seu processamento e do output, o que deverá se dar para além das categorias, historicamente, associadas à discriminação. Conceitos do campo da inteligência artificial, de suas aplicações e da concepção de algoritmo foram delimitados neste trabalho a fim de identificar sua interface com a perspectiva regulatória. Com o intuito de sumarizar os problemas postos pela automatização de decisões, utilizou-se, como diretriz investigativa, mapa de problemas éticos estruturado com base nos seguintes desafios: evidências inconclusivas; evidências inescrutáveis; evidências mal orientadas; resultados discriminatórios; efeitos transformativos; e rastreabilidade. Adicionalmente, foram apresentadas contribuições da filosofia da linguagem, especialmente para identificar os limites subjacentes a um processo de decisão automatizado. Ademais, o regime jurídico das decisões automatizadas na LGPD foi analisado. Foram apresentados os objetivos e os fundamentos da norma, bem como analisada a sua principiologia em interface com o campo das decisões automatizadas. Aspectos de outros direitos dos titulares foram apresentados, especialmente aqueles com repercussões diretas no regime das decisões automatizadas. Os pressupostos para a qualificação de uma decisão como totalmente automatizada foram examinados, em cotejo com o modelo europeu sobre o tema, bem como o direito à explicação, enquanto pressuposto para o exercício da revisão e para a proteção de direitos fundamentais. A revisão de decisão automatizada foi analisada, à luz da legalidade constitucional, concluindo-se com a apresentação de três propostas para extrair o exercício substancial da revisão da LGPD: (i) importância da intervenção humana para a substancialidade da revisão; (ii) condicionamento da revisão a um regime sistêmico de responsabilidade e de prestação de contas, com o estabelecimento de parâmetros; e (iii) associação da revisão a um regime abrangente da fisiologia das situações jurídicas, bem como a um paradigma coletivo de proteção, para além da perspectiva individual.
Abstract: This Ph.D. dissertation aims to analyze, in a functional perspective, the legal regime of the review of automated decision-making, provided by the Brazilian General Data Protection Law (Law n. 13,709 of 2018, acronym “LGPD”). A deductive method of qualitative matter was adopted based on Stefano Rodotà, notably on the diagnosis of the "dictatorship of algorithms", with the need to develop prerogatives for the protection of the person. This was done in attention to the premises of civil-constitutional law to investigate whether the review of automated decision-making, as conceived in the LGPD, holds normative bases of a substantial protection mechanism. The evolution of privacy up to the conception of personal data protection as an autonomous fundamental right was addressed. In addition, the need to apprehend the phenomenon from a collective perspective was presented from the collective dimension of privacy and the protection of personal data. This perspective considered the scenario of opacity and asymmetry of information and power between data subjects and processing agents. The protection of the individual, in the field of automated decision-making, demands progressive scrutiny not only of the data input, but, above all, of its processing and output, which must go beyond the categories historically associated with discrimination. To demonstrate that, the insufficiency of the category of sensitive data was presented. Certain topics in the field of artificial intelligence, its applications, and the conception of algorithms were outlined to identify their interface with the regulatory perspective. To summarize the problems posed by the automation of decisions, we used, as an investigative guideline, a map of ethical problems structured based on the following challenges: inconclusive evidence; inscrutable evidence; misguided evidence; discriminatory results; transformative effects; and traceability. Additionally, contributions from the philosophy of language were presented, especially to identify the underlying limits of an automated decision process. The legal regime of automated decision-making in the LGPD was analyzed. The objectives and fundamentals of the law were presented, and its principiology was analyzed in interface with the field of automated decision-making. Aspects of other rights of data subjects were presented, especially those with direct repercussions on the automated decision-making regime. The assumptions for the qualification of a decision as totally automated were examined in comparison with the European model on the theme, as well as the right to explanation, as an assumption for the exercise of the review and for the protection of fundamental rights. The review of an automated decision was analyzed, in light of constitutional legality, concluding with the presentation of three proposals to extract the substantial exercise of the LGPD review: (i) the importance of human intervention for the substantiality of the review; (ii) the conditioning of the review to a systemic regime of responsibility and accountability with the establishment of parameters; and (iii) the association of the review to a comprehensive regime of the physiology of legal situations, as well as to a collective paradigm of protection beyond the individual perspective.
Palavras-chave: Automated decision-making
Right to review
Right to explanation
Human intervention
Collective dimension of privacy and personal data protection
Fundamental right to the protection of personal data
Decisões automatizadas
Direito à revisão
Direito à explicação
Intervenção humana
Dimensão coletiva da privacidade e da proteção de dados pessoais
Direito fundamental à proteção de dados pessoais
Área(s) do CNPq: CIENCIAS SOCIAIS APLICADAS::DIREITO::DIREITO PRIVADO::DIREITO CIVIL
Idioma: por
País: Brasil
Instituição: Universidade do Estado do Rio de Janeiro
Sigla da instituição: UERJ
Departamento: Centro de Ciências Sociais::Faculdade de Direito
Programa: Programa de Pós-Graduação em Direito
Citação: KORKMAZ, Maria Regina Detoni Cavalcanti Rigolon. Revisão de decisões automatizadas na Lei Geral de Proteção de Dados Pessoais. 2022. 329 f. Tese (Doutorado em Direito) - Faculdade de Direito, Universidade do Estado do Rio de Janeiro, Rio de Janeiro, 2022.
Tipo de acesso: Acesso Embargado
URI: http://www.bdtd.uerj.br/handle/1/18276
Data de defesa: 26-Jul-2022
Aparece nas coleções:Doutorado em Direito



Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.