Inteligência artificial e enviesamento algorítmico: novas formas de discriminação contra pessoas com deficiência

Autores

  • Luíza Resende Guimarães Universidade Federal de Minas Gerais

Palavras-chave:

Inteligência artificial, Pessoas com deficiência, Discriminação algorítmica

Resumo

Este trabalho busca compreender como algoritmos baseados em Inteligência Artificial podem ser injustos com pessoas com deficiência e indicar possíveis estratégias de combate a essa nova modalidade de discriminação, emergida na era digital. Não há dúvidas de que tecnologias que envolvem IA podem beneficiar as pessoas com deficiência em larga medida e impulsionar a busca da igualdade inclusiva em esferas variadas. Em contrapartida, são inúmeros os efeitos discriminatórios para esta população que podem daí emergir, sobretudo no que se refere à discriminação algorítmica. Este trabalho apresenta como possíveis propostas de enfrentamento da problemática: (i) um esforço discursivo e normativo de aplicação de normas antidiscriminatórias, com destaque para a Convenção da ONU sobre os Direitos das Pessoas com Deficiência e para o Estatuto da Pessoa com Deficiência (Lei 13.146/2015), a situações envolvendo pessoas com deficiência; (ii) o rigor na aplicação das normas de proteção de dados ao tratamento de informações relativas a esse grupo; e (iii) a adoção de medidas afirmativas visando à representatividade das pessoas com deficiência em meio aos desenvolvedores e autoridades fiscalizatórias em matéria de regulamentação da IA.

Downloads

Não há dados estatísticos.

Biografia do Autor

Luíza Resende Guimarães, Universidade Federal de Minas Gerais

Doutoranda e Mestre pela Universidade Federal de Minas Gerais. Pesquisadora do Laboratório de Bioética e Direito (LABB/UFLA/CNPq). Integrante do Núcleo de Direito Privado e Vulnerabilidades (UFMG).

Referências

BARIFFI, Francisco Jose. Artificial intelligence, human rights and disability. Pensar, Fortaleza, v. 26, n. 2, p. 1-14, 2021.

BAROCAS, Solon; SELBST, Andrew. Big data’s disparate impact. California Law Review, California, v. 104, n. 3, p. 671-732, 2016.

BINNS, Reuben; KIRKHAM, Reuben. How could equality and data protection law shape AI fairness for disabilities. ACM Transactions on Accessible Computing, Oxford, v. 14, n. 17, p. 1-32, 2021.

BOSSEWITCH, Jonah et. al. Digital Futures in Mind: Reflecting on technological experiments in mental health and crisis support. Melbourne: University of Melbourne, 2022.

CALO, Ryan. Privacy, Vulnerability, and Affordance. In: SELINGER, Evan; POLONETSKY, Jules; TENE, Omer (eds.). The Cambridge Handbook of Consumer Privacy. Cambridge: Cambridge University Press, p. 198-206, 2018.

FOLEY, Alan; FERRI, Beth A. Technology for people, not disabilities: ensuring access and inclusion. Journal of Research in Special Educational Needs, Staffordshire, v. 12, n. 4, p. 192-200, 2012.

GUO, Anhong et al. Toward fairness in AI for people with disabilities a research roadmap. Microsoft Research, Redmond, v. 2, p. 1-9, 2019.

INTERNATIONAL LABOUR ORGANIZATION. World Employment and Social Outlook 2021: The Role of Digital Labour Platforms in Transforming the World of Work. Geneva, 2021.

KRUPIY, Tetyana; SCHEININ, Martin. Disability discrimination in the digital realm: how the ICRPD applies to artificial intelligence decision – making processes and helps in determining the state of international human rights law. Human Rights Law Review, Oxford, v. 23, p. 1-27, 2023.

MARKS, Mason. Algorithmic disability discrimination. In: COHEN, Glenn et al (eds.). Disability, Health, Law and Bioethics. Cambridge: Cambridge University Press, p. 242-254, 2020.

MENDES, Laura Shertel; MATTIUZZO, Marcela. Discriminação algorítmica: conceito, fundamento legal e tipologia. Revista de Direito Univille, Porto Alegre, v. 16, n. 90, p. 39-64, 2019.

NACIONES UNIDAS. Asamblea General. Consejo de Derechos Humanos. Informe de lo Relator Especial sobre los derechos de las personas con discapacidad: Estudio temático sobre la inteligencia artificial, 49º período de sesiones. Nueva York: Naciones Unidas, 2022.

O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Tradução de Rafael Abraham. 1. ed. Santo André: Editora Rua do Sabão, 2020.

PACKIN, Nizan Geskevich. Disability discrimination using artificial intelligence systemns and social scoring: can we disable digital bias? Journal of International and Comparative Law, Hong Kong, v. 8, n. 2, p. 487-512, 2021.

REQUIÃO, Maurício; COSTA, Diego Carneiro. Discriminação algorítmica: ações afirmativas como estratégia de combate. Civilistica.com, a. 11, n. 3, 2022.

WHITTALKER, Meredith et al. Disability, bias, and AI. New York: AI Now Institute, 2019.

WORLD BANK GROUP. Creating disability inclusive ID systems. Washington, 2020.

WORLD HEALTH ORGANIZATION. Ethics and Governance of artificial intelligence for health. Geneva, 2021. Disponível em: www.who.int/. Acesso em: 01 fev. 2024.

ZUBOFF, Shoshana. Big Other: capitalismo de vigilância e perspectivas para uma civilização de informação. In: BRUNO, Fernanda et al (orgs.) Tecnopolíticas da vigilância: perspectivas da margem. São Paulo: Boitempo, 2018.

Downloads

Publicado

2024-08-18

Como Citar

GUIMARÃES, Luíza Resende. Inteligência artificial e enviesamento algorítmico: novas formas de discriminação contra pessoas com deficiência. Civilistica.com, Rio de Janeiro, v. 13, n. 2, p. 1–25, 2024. Disponível em: https://civilistica.emnuvens.com.br/redc/article/view/973. Acesso em: 19 set. 2024.

Edição

Seção

Doutrina contemporânea