Use este identificador para citar ou linkar para este item:
http://repositorio.undb.edu.br/jspui/handle/areas/1357
metadata.dc.type: | Trabalho de Conclusão de Curso |
Título: | Inteligência artificial no recrutamento e o risco de discriminação algorítmica: limites jurídicos e responsabilidade dos empregadores à luz dos casos Amazon e Kyle Behm |
Título(s) alternativo(s): | Artificial intelligence in recruitment and the risk of algorithmic discrimination: legal limits and employers' liability in light of the Amazon and Kyle Behm cases |
metadata.dc.creator: | SOUSA, Nathalia Vieira de Morais |
metadata.dc.contributor.advisor1: | ROCHA, Bruno Rocio |
metadata.dc.contributor.referee1: | SOARES, Diego Menezes |
metadata.dc.contributor.referee2: | PINHEIRO, Clauzer Mendes Castro |
metadata.dc.description.resumo: | Com o advento e a popularização da inteligência artificial, o uso de algoritmos para triagem de currículos e tomada de decisões automatizadas em recrutamento tem se tornado cada vez mais comum. Apesar dos avanços proporcionados por essa tecnologia, surgem desafios quanto ao risco de discriminação algorítmica. Nesse viés, a presente pesquisa investiga como a automatização dos processos de recrutamento por meio de inteligência artificial pode gerar práticas discriminatórias e quais são os limites jurídicos para a responsabilização dos empregadores em decorrência de discriminações algorítmicas no ordenamento brasileiro. O estudo parte da premissa de que algoritmos podem reproduzir práticas discriminatórias estruturais, mesmo que não intencionalmente, devido a vieses nos dados de treinamento. Metodologicamente, trata-se de uma pesquisa qualitativa, básica e exploratória, realizada por meio de procedimento bibliográfico com análise de livros, artigos científicos, legislações e jurisprudências nacionais e estrangeiras, além do estudo dos casos emblemáticos da Amazon e de Kyle Behm. Os resultados demonstram que, apesar da ausência de legislação específica sobre inteligência artificial no Brasil, os empregadores podem ser responsabilizados com base na Constituição Federal, no Código Civil, na CLT e na Lei Geral de Proteção de Dados, especialmente pelos princípios da dignidade humana, igualdade, não discriminação e transparência. Conclui-se que a responsabilidade civil do empregador pode ser configurada tanto na modalidade subjetiva quanto objetiva, sendo esta última aplicável quando se considera que a utilização de sistemas de IA em processos seletivos constitui atividade de risco, exigindo- se das empresas maior diligência na escolha, implementação e monitoramento dessas tecnologias para prevenir discriminações algorítmicas. |
Resumo: | With the advent and popularization of artificial intelligence, the use of algorithms for resume screening and automated decision-making in recruitment has become increasingly common. Despite the technological advances, challenges arise regarding the risk of algorithmic discrimination. In this context, the present research investigates how the automation of recruitment processes through artificial intelligence can result in discriminatory practices and what legal limits exist for employer liability due to algorithmic discrimination under Brazilian law. The study is based on the premise that algorithms can reproduce structural discriminatory practices, even unintentionally, due to biases in training data. Methodologically, it is a qualitative, basic, and exploratory research, conducted through a bibliographic procedure with analysis of books, scientific articles, legislation, and national and international jurisprudence, as well as the study of emblematic cases such as Amazon and Kyle Behm. The results show that, despite the lack of specific legislation on artificial intelligence in Brazil, employers can be held accountable based on the Federal Constitution, the Civil Code, the CLT, and the General Data Protection Law, especially considering the principles of human dignity, equality, non- discrimination, and transparency. It is concluded that employer liability may be configured under both subjective and objective modalities, the latter being applicable when the use of AI in selection processes is considered a risk activity, thus requiring greater diligence in choosing, implementing, and monitoring such technologies to prevent algorithmic discrimination. |
Palavras-chave: | Inteligência artificial Artificial intelligence Discriminação algorítmica Algorithmic discrimination Lei Geral de Proteção de Dados General Data Protection Law Responsabilidade - empregadores Responsibility - employers |
metadata.dc.subject.cnpq: | CNPQ::CIENCIAS SOCIAIS APLICADAS |
metadata.dc.language: | por |
metadata.dc.publisher.country: | Brasil |
Editor: | Centro Universitário - UNDB |
metadata.dc.publisher.initials: | UNDB |
metadata.dc.publisher.department: | UNDB |
Citação: | SOUSA, Nathalia Vieira de Morais. Inteligência artificial no recrutamento e o risco de discriminação algorítmica: limites jurídicos e responsabilidade dos empregados à luz dos casos Amazon e Kyle Behm. São Luís: Centro Universitário UDNB, 2025. |
metadata.dc.rights: | Acesso Aberto |
URI: | http://repositorio.undb.edu.br/jspui/handle/areas/1357 |
Data do documento: | 18-Jun-2025 |
Aparece nas coleções: | Direito |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
INTELIGÊNCIA ARTIFICIAL NO RECRUTAMENTO E O RISCO DE DISCRIMINAÇÃO ALGORÍTMICA LIMITES JURÍDICOS E RESPONSABILIDADE DOS EMPREGADORES À LUZ DOS CASOS AMAZON E KYLE BEHM.pdf | 512,42 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.