Quando falamos de dados pessoais, é natural que a Inteligência Artificial (IA) apareça no contexto. Corporações e empresas utilizam a IA para a sua coleta de maneira estratégica, visando informações valiosas para os objetivos da empresa, como mapeamento de mercado e público. Quando recebemos anúncios no Instagram, por exemplo, de um produto que colocamos na lista de desejos de outro site, vemos um exemplo do uso de dados para o registro de preferências dos usuários – a partir de curtidas, páginas acessadas, aplicativos baixados – para a criação de um marketing personalizado. Mas com tantos dados pessoais sendo coletados a todo instante, é comum que apareçam os questionamentos: A segurança de nossas informações está comprometida? Quem os controle e com quais os objetivos?

Lei Geral de Proteção de Dados e Inteligência Artificial

Por que dados são tão importantes no uso da IA?

Como foi comentado brevemente na introdução, o uso da IA para a coleta e uso de dados é frequentemente utilizada para profiling – definição de perfil – para um objetivo específico, em que um grande volumes de dados é captado para então o uso do machine learning – aprendizado de máquina – ter sucesso no reconhecimento de padrões desses dados. O profiling consiste então em: “qualquer forma de tratamento automatizado de dados pessoais que consista em utilizá-los para avaliar certos aspectos pessoais de uma pessoa singular, nomeadamente para analisar ou prever aspectos relacionados com o seu desempenho profissional, a sua situação econômica, saúde, preferências pessoais, interesses, fiabilidade, comportamento, localização ou deslocações”, segundo o artigo 4(4) do Regulamento Geral sobre Proteção de Dados (GDPR, na sigla em inglês) da União Europeia.

Mesmo que a Lei Geral de Proteção de Dados (LGPD) tenha sido cunhada inspirando-se na GDPR, ela não possui uma definição de profiling, o que não quer dizer que não o utilizamos no Brasil. Afinal, sabemos que Netflix coleta dados para que o algoritmo nos recomende títulos para assistir, que o Facebook utiliza para personalizar anúncios (o que nos leva a uma outra discussão acerca de como somos os produtos de serviços gratuitos) e que o Google os usa para recomendar conteúdo, tudo isso através de dados pessoais coletados.¹

A partir disso, surge o questionamento acerca dos possíveis demais objetivos que podem possuir para com a utilização desses dados todos. Daí entra em cena a LGPD, tornando um direito dos usuários o conhecimento de quais dados exatamente essas (o outras) empresas coletam e o que mais pretendem fazer com eles. “Além de ser a favor de fornecer as minhas informações, eu também quero saber quais dados eles têm e porquê. E se um dia eu cismar que não quero mais ter esses dados com eles, eu vou ter esse direito de apagar”, defende Angelo Assis, especialista em inteligência artificial e professor do Instituto de Gestão e Tecnologia da Informação (IGTI).

Como a LGPD influencia a utilização da IA?

Em agosto de 2020 entrou em vigor a LGPD, que quer regulamentar o uso dos dados obtidos pelas empresas, obrigando-as a desenvolver um sistema transparente, em que fique claro ao usuário quais os objetivos possuem para com seus dados. Isso possibilitará ao usuário o conhecimento acerca das intenções das empresas e assim permitir, negar ou revogar o uso deles.

A LGPD pode representar um desafio para a utilização de IA, uma vez quanto mais dados disponíveis, melhor é para os algoritmos reconhecerem padrões. A limitação da coleta de dados, para que cumpram apenas os fins declarados, além de prejudicar o volume de dados armazenados, também provoca uma minimização do tempo de armazenamento dos dados. Porém, a IA também pode ser uma grande aliada para a proteção de dados – e consequentemente, o cumprimento da LGPD – sendo capaz de proteger dados, impedindo crimes cybernéticos.

Olhando pela perspectiva contrária, a LGPD vai tornar o uso da IA algo muito mais consciente e ético, algo transparente, uma vez que não poderão utilizar nossos dados para fins que nem mesmo temos conhecimento. Um bom exemplo para tal situação foi o compartilhamento de dados de usuários com a Cambridge Analytica – feito pelo Facebook, nas eleições dos Estados Unidos em 2016 – em que foram utilizados para influenciar as eleições, criando bolhas de informações e uma campanha política velada.

Esse compartilhamento de dados de uma empresa para outra também é afetado pela lei, uma vez que os objetivos finais para com o uso dos dados não costumam ser o mesmo entre as empresas, explica Diogo Moyses, coordenador do programa de Direitos Digitais do Instituto Brasileiro de Defesa do Consumidor (IDEC). Nesse cenário, o usuário deverá ter conhecimento dos objetivos de ambas as empresas, bem como permitir ou não o compartilhamento de seus dados.

A Inteligência Artificial na Câmara dos Deputados

A Portaria MCTI nº 4.617, de 6 de abril de 2021, definiu que a Estratégia Brasileira de Inteligência Artificial (EBIA) deverá ser pautada por ações objetivando a inovação, pesquisa e desenvolvimento de soluções por meio do uso consciente, ético e em visando um futuro melhor. Já em 6 de julho desse mesmo ano, a Câmara dos Deputados aprovou o regime de urgência para o Projeto de Lei (PL) 21/20, proposto pelo deputado Eduardo Bismarck (PDT – CE), que aguarda votação nas próximas sessões do Plenário. Ele deve ser adotado por pessoas físicas, empresas, poder público e entidades diversas.

O Projeto representa um marco legal para a utilização de Inteligência Artificial no Brasil, estabelecendo princípios, direitos e deveres para o uso da IA, incitando o desenvolvimento tecnológico e a inovação. O texto também defende a livre concorrência e livre iniciativa, o respeito aos Direitos Humanos e aos valores democráticos, a igualdade, a não-discriminação, a pluralidade e o respeito aos direitos trabalhistas e a privacidade e a proteção de dados.

O PL estipula princípios para que o uso da IA aconteça de modo responsável: buscar por resultados benéficos, (aumentando a capacidade humana e reduzindo a desigualdade), ter o ser humano no centro (visar o respeito à dignidade humana, à privacidade, à proteção de dados e direitos trabalhistas), lutar contra a discriminação, ser transparente (e dar explicações acerca do uso do sistema), ter segurança, e ser responsável e prestar contas.


Assim, a discussão acerca de privacidade de dados e inteligência artificial é ampla e ainda tem um caminho longo a ser descoberto, tanto em nosso país como no mundo, uma vez que a preocupação com a segurança está crescendo exponencialmente junto ao desenvolvimento tecnológico, fomentado por interesses cada vez mais enfáticos numa cultura digital em ascensão.


¹ De acordo com o art. 12, §2º, da LGPD: “§2º Poderão ser igualmente considerados como dados pessoais, para os fins desta Lei, aqueles utilizados para formação do perfil comportamental de determinada pessoa natural, se identificada.”