Use este identificador para citar ou linkar para este item: http://repositorio.undb.edu.br/jspui/handle/areas/1357
metadata.dc.type: Trabalho de Conclusão de Curso
Título: Inteligência artificial no recrutamento e o risco de discriminação algorítmica: limites jurídicos e responsabilidade dos empregadores à luz dos casos Amazon e Kyle Behm
Título(s) alternativo(s): Artificial intelligence in recruitment and the risk of algorithmic discrimination: legal limits and employers' liability in light of the Amazon and Kyle Behm cases
metadata.dc.creator: SOUSA, Nathalia Vieira de Morais
metadata.dc.contributor.advisor1: ROCHA, Bruno Rocio
metadata.dc.contributor.referee1: SOARES, Diego Menezes
metadata.dc.contributor.referee2: PINHEIRO, Clauzer Mendes Castro
metadata.dc.description.resumo: Com o advento e a popularização da inteligência artificial, o uso de algoritmos para triagem de currículos e tomada de decisões automatizadas em recrutamento tem se tornado cada vez mais comum. Apesar dos avanços proporcionados por essa tecnologia, surgem desafios quanto ao risco de discriminação algorítmica. Nesse viés, a presente pesquisa investiga como a automatização dos processos de recrutamento por meio de inteligência artificial pode gerar práticas discriminatórias e quais são os limites jurídicos para a responsabilização dos empregadores em decorrência de discriminações algorítmicas no ordenamento brasileiro. O estudo parte da premissa de que algoritmos podem reproduzir práticas discriminatórias estruturais, mesmo que não intencionalmente, devido a vieses nos dados de treinamento. Metodologicamente, trata-se de uma pesquisa qualitativa, básica e exploratória, realizada por meio de procedimento bibliográfico com análise de livros, artigos científicos, legislações e jurisprudências nacionais e estrangeiras, além do estudo dos casos emblemáticos da Amazon e de Kyle Behm. Os resultados demonstram que, apesar da ausência de legislação específica sobre inteligência artificial no Brasil, os empregadores podem ser responsabilizados com base na Constituição Federal, no Código Civil, na CLT e na Lei Geral de Proteção de Dados, especialmente pelos princípios da dignidade humana, igualdade, não discriminação e transparência. Conclui-se que a responsabilidade civil do empregador pode ser configurada tanto na modalidade subjetiva quanto objetiva, sendo esta última aplicável quando se considera que a utilização de sistemas de IA em processos seletivos constitui atividade de risco, exigindo- se das empresas maior diligência na escolha, implementação e monitoramento dessas tecnologias para prevenir discriminações algorítmicas.
Resumo: With the advent and popularization of artificial intelligence, the use of algorithms for resume screening and automated decision-making in recruitment has become increasingly common. Despite the technological advances, challenges arise regarding the risk of algorithmic discrimination. In this context, the present research investigates how the automation of recruitment processes through artificial intelligence can result in discriminatory practices and what legal limits exist for employer liability due to algorithmic discrimination under Brazilian law. The study is based on the premise that algorithms can reproduce structural discriminatory practices, even unintentionally, due to biases in training data. Methodologically, it is a qualitative, basic, and exploratory research, conducted through a bibliographic procedure with analysis of books, scientific articles, legislation, and national and international jurisprudence, as well as the study of emblematic cases such as Amazon and Kyle Behm. The results show that, despite the lack of specific legislation on artificial intelligence in Brazil, employers can be held accountable based on the Federal Constitution, the Civil Code, the CLT, and the General Data Protection Law, especially considering the principles of human dignity, equality, non- discrimination, and transparency. It is concluded that employer liability may be configured under both subjective and objective modalities, the latter being applicable when the use of AI in selection processes is considered a risk activity, thus requiring greater diligence in choosing, implementing, and monitoring such technologies to prevent algorithmic discrimination.
Palavras-chave: Inteligência artificial
Artificial intelligence
Discriminação algorítmica
Algorithmic discrimination
Lei Geral de Proteção de Dados
General Data Protection Law
Responsabilidade - empregadores
Responsibility - employers
metadata.dc.subject.cnpq: CNPQ::CIENCIAS SOCIAIS APLICADAS
metadata.dc.language: por
metadata.dc.publisher.country: Brasil
Editor: Centro Universitário - UNDB
metadata.dc.publisher.initials: UNDB
metadata.dc.publisher.department: UNDB
Citação: SOUSA, Nathalia Vieira de Morais. Inteligência artificial no recrutamento e o risco de discriminação algorítmica: limites jurídicos e responsabilidade dos empregados à luz dos casos Amazon e Kyle Behm. São Luís: Centro Universitário UDNB, 2025.
metadata.dc.rights: Acesso Aberto
URI: http://repositorio.undb.edu.br/jspui/handle/areas/1357
Data do documento: 18-Jun-2025
Aparece nas coleções:Direito



Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.