Precariedade do debate de proteção de dados pessoais LGBTQIA+ no Brasil

Data: 28 /06/2023

Autoria: Thiago Moraes

Imagine ter sua voz calada ou diminuída em espaços que deveriam servir como redes de apoio para defender direitos da sua comunidade. Ou ter informações sensíveis sobre suas preferências sexuais utilizadas por terceiros sem que você tenha conhecimento ou controle sobre esse compartilhamento. Estas são algumas das circunstâncias a que a comunidade LGBTQIA+ está sujeita nos espaços digitais. Infelizmente, estas são pautas ainda pouco debatidas no país.

Não há motivos para ignorar as consequências da LGBTfobia, que podem ser inclusive fatais: de acordo com dossiê entregue ao Ministério dos Direitos Humanos e Cidadania – MDHC, só em 2022, 131 pessoas trans foram assassinadas no país. Infelizmente, o ambiente digital pode servir como catalisador para fomentar a violência e a discriminação contra essa comunidade.

Nesse sentido, um caso brasileiro que merece ser destacado é o da pesquisa do InternetLab, que revelou riscos discriminatórios no uso de algoritmos de inteligência artificial de plataformas digitais como Facebook, Twitter e YouTube, para moderar o conteúdo relativo a drag queens [1]. O estudo revelou que esses sistemas de tomada de decisão automatizada, por falharem em identificar os contextos dos discursos, bloquearam conteúdos ou invisibilizaram as publicações desse grupo, sob a alegação de terem detectado conteúdo tóxico ou ofensivo. É que palavras como “gay” ou “lésbica” costumam ser taxados como “negativo” por esses algoritmos. Além disso, é comum que pessoas LGBTQIA+ utilizem de termos considerados ofensivos quando pronunciados por terceiros, para ressignificá-los, como por exemplo “travesti”. Ainda que este exemplo traga uma perspectiva com foco na liberdade de expressão, cabe questionar como os perfis de LGBTQIA+ identificadas como “infratoras” dessas regras de moderação de conteúdo passam a ser utilizados e até mesmo compartilhados a terceiros por essas plataformas.

A Lei nº 13.709/2018, Lei Geral de Proteção de Dados (LGPD,) instituiu em seu rol de direitos, o da revisão de tomadas de decisões automatizadas (artigo 20). Inclusive, este direito pode ser objeto de atuação regulatória da Autoridade Nacional de Proteção de Dados (ANPD), a autarquia responsável pela efetividade dessa lei. Há pelo menos dois momentos da Agenda Regulatória 2023-2024 onde o tema poderia ser explorado, se este for o interesse da autoridade: na regulamentação dos direitos dos titulares (item 2 da agenda) e nos temas afetos à inteligência artificial e a proteção de dados (item 19 da agenda). Ademais, para além de uma agenda de normatização, a LGPD autoriza a ANPD a atuar, em contexto fiscalizatório, com auditorias para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais, conforme prescreve o §2º do artigo 20.

Outro exemplo, este estrangeiro, que cabe ser mencionado é o do aplicativo de relacionamentos focado no público LGBTQIA+, o Grindr. Em 2018, o app foi denunciado à Autoridade de Proteção de Dados da Noruega, Datatilsynet, por ter compartilhado dados pessoais de seus usuários com empresas terceiras, incluindo quanto ao status HIV dessas pessoas. Após extensa investigação, em 2021, a autoridade sancionou o Grindr em 100 milhões de coroas norueguesas – equivalente a R$ 63,8 milhões por tratamento inadequado de dados pessoais. Esta até o momento é a maior multa já imposta na Noruega. Conquanto não exista um caso similar aqui no Brasil, é possível fazer o questionamento: será que esse compartilhamento indevido não ocorre por aqui, ou apenas não temos conhecimento dele?

Conquanto a LGPD seja um importante marco normativo, é necessário refletir se ela se faz suficiente para enfrentar questões específicas referentes à comunidade LGBTQIA+. Uma crítica a ser feita é que a lei, ao definir o rol daqueles que são considerados dados pessoais sensíveis — objeto jurídico de maior proteção legal — perdeu a oportunidade de incluir, para além dos dados referentes à vida sexual, aqueles relativos à orientação sexual. Sua contraparte europeia, o Regulamento Geral de Proteção de Dados (RGPD), explicitamente incluiu ambos.

A diferença pode parecer sutil, mas na prática ela faz muita diferença. Não é à toa que, em 2011, o Supremo Tribunal Federal consagrou o direito à união homoafetiva à luz da Constituição de 1988 na Ação Direta de Inconstitucionalidade (ADI) nº 4.277. Na ocasião, o ministro Ayres Britto, em voto relator [2], reconheceu a homoafetividade como o vínculo de afeto e solidariedade entre os pares ou parceiros do mesmo sexo (enquanto elemento definidor de uma identidade biológica, mas não de gênero), não se reduzindo, portanto, à mera prática de atos sexuais entre esses indivíduos.

A confusão entre atividade sexual e orientação sexual também perpassou outro caso paradigmático, a ADI 5.543, em que a Suprema Corte brasileira considerou inconstitucionais os dispositivos de normas do Ministério da Saúde e da Agência Nacional de Vigilância Sanitária (Anvisa) que excluíam do rol de habilitados para doação de sangue os “homens que tiveram relações sexuais com outros homens e/ou as parceiras sexuais destes nos 12 meses antecedentes”. Nesse contexto, riscos relacionados à vida sexual eram utilizados como vetor para perpetuar o preconceito a pessoas homoafetivas. Em seu voto, o ministro relator Edson Fachin destacou [3] como a vedação imposta pela Anvisa se manifestava como uma restrição à autonomia privada dessas pessoas, pois impedia que elas exercessem plenamente suas escolhas de vida, ainda que de maneira sexualmente segura e saudável. Ademais, a medida era uma limitação à autonomia pública dessa comunidade em participar de uma política pública de saúde relevante de auxílio à transfusão de sangue.

Voltando à LGPD, embora a lei possa ter perdido uma oportunidade relevante de dar destaque às vulnerabilidades dessa comunidade, ela não isenta que o regulador brasileiro enfrente o tema. Isto porque um dos seus princípios basilares é o da não-discriminação, que proíbe a realização do tratamento de dados pessoais para fins discriminatórios ilícitos ou abusivos (artigo 6º, IX). Ademais, ainda que de forma imperfeita, em vários contextos, os dados relativos à vida sexual podem permitir inferir informações relativas à orientação sexual dos indivíduos. Assim, pode-se assumir que esses dados relativos à vida sexual podem servir como proxies para o tratamento de dados referentes à orientação sexual, ou vice-versa. Por fim, como já mencionado anteriormente, a LGPD parece trazer, ainda que minimamente, regras contra a discriminação algorítmica, em seu artigo 20, §2º.

Considerando a realidade do mundo digital, a invisibilização dos direitos de pessoas LGBTQIA+ nesse espaço é um problema que precisa ser enfrentado. Nesse sentido, esforços como o articulado pelos Ministério dos Direitos Humanos e Cidadania (MDHC); Ministério da Justiça e Segurança Pública (MJSP); Secretaria de Comunicação Social (Secom); e pelo Conselho Nacional LGBTQIA+, para a comemoração do Dia do Orgulho LGBTQIA+ 2023 são bem-vindos. Entre as iniciativas promovidas, é possível identificar algumas relacionadas ao espaço digital, como o programa do Serpro, “Agora 3T”, edital de investimento social destinado às comunidades trans e travesti com o objetivo de incluir públicos minorizados no âmbito da tecnologia; e os 10 Compromissos para Proteção de Direitos das Pessoas LGBTQIA+ em Aplicativos de Mobilidade.

Em relação aos dez compromissos, vale destacar a articulação interministerial promovida pela Secretaria de Políticas Digitais, parte da Secretaria de Comunicação Social da Presidência da República, que organizou cerimônia no dia 27 de junho, transmitida pela internet, para celebrar os compromissos com as representantes dos aplicativos — Uber, 99 e Buser. Entre eles está o de combate à discriminação algorítmica.

As plataformas signatárias também se comprometem a realizar reuniões periódicas para desenvolver Plano de Ação com detalhamento das medidas a serem adotadas em até 90 dias. Entretanto, é notório que plataformas digitais de redes sociais, tais como Google (responsável pelo YouTube), Meta (responsável pelo Facebook e Instagram) e Byte Dance (responsável pelo Tik Tok), não se mobilizaram para firmar o acordo, muito embora o compromisso dessas entidades também seja indispensável para garantir o combate efetivo à discriminação LGBTQIA+ no espaço digital.

Fica evidente, portanto, que ainda há muito o que se avançar nesse debate. Enquanto o Brasil não construir em suas agendas de políticas públicas e regulatórias compromissos específicos para o uso adequado dos dados pessoais de comunidades LGBTQIA+, esse é um tema que continuará invisibilizado e refém de abusos e ilicitudes.

__________________________________________

[1] GOMES, Alessandra; ANTONIALLI, Dennys; OLIVA, Thiago. Drag queens e Inteligência Artificial: computadores devem decidir o que é ‘tóxico’ na internet? InternetLab. Disponível em: https://internetlab.org.br/pt/noticias/drag-queens-e-inteligencia-artificial-computadores-devem-decidir-o-que-e-toxico-na-internet/. Acesso em 28 de junho de 2023.

[2] BRASIL. Supremo Tribunal Federal (Plenário) Ação Direta de Inconstitucionalidade n. 4277. Requerente: Procuradoria Geral da República. Relator: min. Ayres Britto, 05 de maio de 2011. Disponível em: https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=628635. Acesso em 28 de junho de 2023.

[3] BRASIL. Supremo Tribunal Federal (Plenário) Ação Direta de Inconstitucionalidade n. 5543. Requerente: Partido Socialista Brasileiro — PSB. Relator: min. Edson Fachin, 11 de maio de 2020. Disponível em: https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=628635. Acesso em 28 de junho de 2023.

Fonte: Consultor Jurídico

Sugestões de leitura