Use este identificador para citar ou linkar para este item: http://repositorio.ufgd.edu.br/jspui/handle/prefix/6666
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisor1Contini, Alaerte Antonio Martellipt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1466991094261196pt_BR
dc.contributor.referee2Esposito Neto, Tomazpt_BR
dc.contributor.referee3Piva, Sílvia Helena Gomespt_BR
dc.creatorOtake, Renata Akemipt_BR
dc.creator.Latteshttp://lattes.cnpq.br/0332803653673456pt_BR
dc.date.accessioned2025-09-29T19:09:18Zpt_BR
dc.date.available2025-09-02pt_BR
dc.date.available2025-09-29T19:09:18Zpt_BR
dc.date.issued2025-08-07pt_BR
dc.identifier.citationOTAKE, Renata Akemi. A utilização da inteligência artificial no judiciário: Possibilidade de discriminação no sistema penal?. 2025. 75 f. Dissertação (Mestrado em Fronteiras e Direitos Humanos) – Faculdade de Direito e Relações Internacionais, Universidade Federal da Grande Dourados, Dourados, MS, 2025.pt_BR
dc.identifier.urihttp://repositorio.ufgd.edu.br/jspui/handle/prefix/6666pt_BR
dc.description.abstractThis study analyzes the application of artificial intelligence (AI) in the Brazilian judicial system, with an emphasis on the risks of algorithmic discrimination in the criminal justice system. Based on the premise that AI tools are not neutral, as their algorithms, fed by historical data, reproduce and reinforce preexisting social biases, the research investigates how this technology can reinforce inequalities in the criminal justice system. The question this research proposed is: can the use of artificial intelligence systems as a tool generate algorithmic discrimination, and how might this occur? The general objective was to study the use of artificial intelligence in the Brazilian Judicial System and the possibility of algorithmic discrimination in the criminal justice system. Furthermore, the specific objectives sought to: a) understand what artificial intelligence is and its compositions; b) the state of the Brazilian judicial system in light of new technologies; c) the possibility of algorithmic discrimination. The methodological approach combined Karl Popper's hypothetical-deductive method, hypothesis-based literature review, and empirical data analysis, along with document research from sources such as CNJ reports, academic articles, and national and international case investigations. The findings showed that, although AI offers advantages such as faster processes and lower costs, it also reproduces patterns of discrimination. In Brazil, the use of facial recognition by the police revealed high error rates for Black people, transgender people, and people from peripheral areas, leading to unfair arrests. Furthermore, the lack of transparency in the algorithms and the lack of adequate regulation exacerbated these problems, making oversight and judicial control more difficult. The conclusions supported the initial hypothesis: AI, when used without ethical guidelines and legal safeguards, tends to maintain and intensify structural discrimination, especially in a penal system already characterized by selectivity and racism. Therefore, the innovations proposed by AI require regulations prepared for the impacts arising from their use, applying ethical criteria that prevent the reinstatement of biases present in previous decisions, that is, preventing automation from deepening social injustices rather than resolving them. Regulation of AI in the judicial system should focus on accountability, social participation, and the correction of biases, ensuring that technological advances represent social evolution and do not compromise justice and equity.en
dc.description.resumoEste estudo analisa a aplicação da inteligência artificial (IA) no sistema judiciário brasileiro, com ênfase nos riscos de discriminação algorítmica no âmbito penal. A partir da premissa de que as ferramentas de IA não são neutras, pois seus algoritmos, alimentados por dados históricos, reproduzem e potencializam vieses sociais preexistentes, a pesquisa investiga como essa tecnologia pode reforçar desigualdades no sistema de justiça criminal. O questionamento que essa pesquisa se propôs a estudar é: se a utilização de sistemas de inteligência artificial como uma ferramenta, podem gerar discriminações algorítmicas e como poderiam ser ocasionadas? O objetivo geral foi estudar a utilização da utilização das inteligências artificiais no Sistema Judiciário Brasileiro, e a possibilidade de discriminação algorítmica no sistema penal. Ademais, como objetivos específicos, buscou-se: a) compreender o que são as inteligências artificiais e suas composições; b) o estado do sistema judiciário brasileiro frente as novas tecnologias; c) possibilidade de discriminação algorítmica. A abordagem metodológica uniu o método hipotético-dedutivo de Karl Popper, a hipótese por meio de revisão de literatura e análise de dados empíricos, juntamente com pesquisa de documentos em fontes como relatórios do CNJ, artigos acadêmicos e investigações de casos nacionais e internacionais. Os achados mostraram que, apesar de a IA oferecer vantagens como agilidade em processos e diminuição de custos, ela também reproduz padrões de discriminação. No Brasil, o uso de reconhecimento facial pela polícia revelou taxas de erro elevadas em relação a pessoas negras, transexuais e de áreas periféricas, o que levou a prisões injustas. Além disso, a falta de transparência dos algoritmos e a carência de regulamentação adequada exacerbaram esses problemas, tornando mais difícil a supervisão e o controle judicial. As conclusões apoiaram a hipótese inicial: a IA, quando utilizada sem diretrizes éticas e salvaguardas legais, tende a manter e intensificar discriminações estruturais, especialmente em um sistema penal já caracterizado pela seletividade e pelo racismo. Desta forma, as inovações propostas pela IA, carecem de uma regulamentação preparada para os impactos advindos de seu uso, aplicando critérios éticos que evitem a reintegração de preconceitos presentes em decisões antepassadas, ou seja, evitando que a automação aprofunde injustiças sociais em vez de resolvê-las. A regulamentação da IA no sistema judicial deve focar na responsabilização, na participação social e na correção de preconceitos, garantindo que os avanços tecnológicos sejam significados de evolução social, e não comprometam a justiça e a equidade.pt_BR
dc.description.provenanceSubmitted by Claudeir Guilhermino (claudeirguilhermino@ufgd.edu.br) on 2025-09-29T19:09:18Z No. of bitstreams: 1 RenataAkemiOtake - Parcial.pdf: 192087 bytes, checksum: d1e8a8d9abccff60d47f528e824db9d4 (MD5)en
dc.description.provenanceMade available in DSpace on 2025-09-29T19:09:18Z (GMT). No. of bitstreams: 1 RenataAkemiOtake - Parcial.pdf: 192087 bytes, checksum: d1e8a8d9abccff60d47f528e824db9d4 (MD5) Previous issue date: 2025-08-07en
dc.description.sponsorshipCoordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal da Grande Douradospt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentFaculdade de Direito e Relações Internacionaispt_BR
dc.publisher.programPrograma de pós-graduação em Fronteiras e Direitos Humanospt_BR
dc.publisher.initialsUFGDpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectInteligência artificialpt_BR
dc.subjectArtificial Intelligenceen
dc.subjectSistema penalpt_BR
dc.subjectCriminal Justice Systemen
dc.subjectAlgoritmospt_BR
dc.subjectAlgorithmsen
dc.subject.cnpqCNPQ::CIENCIAS SOCIAIS APLICADASpt_BR
dc.titleA utilização da inteligência artificial no judiciário: Possibilidade de discriminação no sistema penal?pt_BR
dc.typeDissertaçãopt_BR
Aparece nas coleções:Mestrado em Fronteiras e Direitos Humanos

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
RenataAkemiOtake - Parcial.pdf187,58 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.