Use este identificador para citar ou linkar para este item:
http://repositorio.ufgd.edu.br/jspui/handle/prefix/6666
Tipo: | Dissertação |
Título: | A utilização da inteligência artificial no judiciário: Possibilidade de discriminação no sistema penal? |
Autor(es): | Otake, Renata Akemi |
Primeiro Orientador: | Contini, Alaerte Antonio Martelli |
metadata.dc.contributor.referee2: | Esposito Neto, Tomaz |
metadata.dc.contributor.referee3: | Piva, Sílvia Helena Gomes |
Resumo: | Este estudo analisa a aplicação da inteligência artificial (IA) no sistema judiciário brasileiro, com ênfase nos riscos de discriminação algorítmica no âmbito penal. A partir da premissa de que as ferramentas de IA não são neutras, pois seus algoritmos, alimentados por dados históricos, reproduzem e potencializam vieses sociais preexistentes, a pesquisa investiga como essa tecnologia pode reforçar desigualdades no sistema de justiça criminal. O questionamento que essa pesquisa se propôs a estudar é: se a utilização de sistemas de inteligência artificial como uma ferramenta, podem gerar discriminações algorítmicas e como poderiam ser ocasionadas? O objetivo geral foi estudar a utilização da utilização das inteligências artificiais no Sistema Judiciário Brasileiro, e a possibilidade de discriminação algorítmica no sistema penal. Ademais, como objetivos específicos, buscou-se: a) compreender o que são as inteligências artificiais e suas composições; b) o estado do sistema judiciário brasileiro frente as novas tecnologias; c) possibilidade de discriminação algorítmica. A abordagem metodológica uniu o método hipotético-dedutivo de Karl Popper, a hipótese por meio de revisão de literatura e análise de dados empíricos, juntamente com pesquisa de documentos em fontes como relatórios do CNJ, artigos acadêmicos e investigações de casos nacionais e internacionais. Os achados mostraram que, apesar de a IA oferecer vantagens como agilidade em processos e diminuição de custos, ela também reproduz padrões de discriminação. No Brasil, o uso de reconhecimento facial pela polícia revelou taxas de erro elevadas em relação a pessoas negras, transexuais e de áreas periféricas, o que levou a prisões injustas. Além disso, a falta de transparência dos algoritmos e a carência de regulamentação adequada exacerbaram esses problemas, tornando mais difícil a supervisão e o controle judicial. As conclusões apoiaram a hipótese inicial: a IA, quando utilizada sem diretrizes éticas e salvaguardas legais, tende a manter e intensificar discriminações estruturais, especialmente em um sistema penal já caracterizado pela seletividade e pelo racismo. Desta forma, as inovações propostas pela IA, carecem de uma regulamentação preparada para os impactos advindos de seu uso, aplicando critérios éticos que evitem a reintegração de preconceitos presentes em decisões antepassadas, ou seja, evitando que a automação aprofunde injustiças sociais em vez de resolvê-las. A regulamentação da IA no sistema judicial deve focar na responsabilização, na participação social e na correção de preconceitos, garantindo que os avanços tecnológicos sejam significados de evolução social, e não comprometam a justiça e a equidade. |
Abstract: | This study analyzes the application of artificial intelligence (AI) in the Brazilian judicial system, with an emphasis on the risks of algorithmic discrimination in the criminal justice system. Based on the premise that AI tools are not neutral, as their algorithms, fed by historical data, reproduce and reinforce preexisting social biases, the research investigates how this technology can reinforce inequalities in the criminal justice system. The question this research proposed is: can the use of artificial intelligence systems as a tool generate algorithmic discrimination, and how might this occur? The general objective was to study the use of artificial intelligence in the Brazilian Judicial System and the possibility of algorithmic discrimination in the criminal justice system. Furthermore, the specific objectives sought to: a) understand what artificial intelligence is and its compositions; b) the state of the Brazilian judicial system in light of new technologies; c) the possibility of algorithmic discrimination. The methodological approach combined Karl Popper's hypothetical-deductive method, hypothesis-based literature review, and empirical data analysis, along with document research from sources such as CNJ reports, academic articles, and national and international case investigations. The findings showed that, although AI offers advantages such as faster processes and lower costs, it also reproduces patterns of discrimination. In Brazil, the use of facial recognition by the police revealed high error rates for Black people, transgender people, and people from peripheral areas, leading to unfair arrests. Furthermore, the lack of transparency in the algorithms and the lack of adequate regulation exacerbated these problems, making oversight and judicial control more difficult. The conclusions supported the initial hypothesis: AI, when used without ethical guidelines and legal safeguards, tends to maintain and intensify structural discrimination, especially in a penal system already characterized by selectivity and racism. Therefore, the innovations proposed by AI require regulations prepared for the impacts arising from their use, applying ethical criteria that prevent the reinstatement of biases present in previous decisions, that is, preventing automation from deepening social injustices rather than resolving them. Regulation of AI in the judicial system should focus on accountability, social participation, and the correction of biases, ensuring that technological advances represent social evolution and do not compromise justice and equity. |
Palavras-chave: | Inteligência artificial Artificial Intelligence Sistema penal Criminal Justice System Algoritmos Algorithms |
CNPq: | CNPQ::CIENCIAS SOCIAIS APLICADAS |
Idioma: | por |
País: | Brasil |
Editor: | Universidade Federal da Grande Dourados |
Sigla da Instituição: | UFGD |
metadata.dc.publisher.department: | Faculdade de Direito e Relações Internacionais |
metadata.dc.publisher.program: | Programa de pós-graduação em Fronteiras e Direitos Humanos |
Citação: | OTAKE, Renata Akemi. A utilização da inteligência artificial no judiciário: Possibilidade de discriminação no sistema penal?. 2025. 75 f. Dissertação (Mestrado em Fronteiras e Direitos Humanos) – Faculdade de Direito e Relações Internacionais, Universidade Federal da Grande Dourados, Dourados, MS, 2025. |
Tipo de Acesso: | Acesso Aberto |
URI: | http://repositorio.ufgd.edu.br/jspui/handle/prefix/6666 |
Data do documento: | 7-Ago-2025 |
Aparece nas coleções: | Mestrado em Fronteiras e Direitos Humanos |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
RenataAkemiOtake - Parcial.pdf | 187,58 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.