book_icon

Uso de Dados de usuários de redes sociais para treinamento em IA esbarra na LGPD

Na decisão da ANPD, a Meta está proibida de utilizar Dados de usuários brasileiros para treinar suas plataformas de Inteligência Artificial (IA)

Uso de Dados de usuários de redes sociais para treinamento em IA esbarra na LGPD

Uma medida preventiva direcionada à Meta – empresa proprietária das redes sociais Facebook e Instagram – foi anunciada nesta semana pela Autoridade Nacional de Proteção de Dados (ANPD). Na decisão, a empresa está proibida de utilizar Dados de usuários brasileiros para treinar suas plataformas de Inteligência Artificial (IA).

O processo para que os usuários proíbam a utilização de suas informações pessoais foi considerado pouco intuitivo e difícil de acessar 

A justificativa é que o tratamento das informações por parte da empresa estaria indo de encontro à Lei Geral de Proteção de Dados (LGPD). Criada em 2020 e entrou em vigência a partir de 2021, a regulamentação tem por objetivo garantir mais segurança e transparência às informações coletadas por empresas públicas e privadas, assegurando a proteção dos Dados sensíveis de pessoas físicas (tais como nome, idade, endereço, documentos pessoais, entre outros).

Para Rafael Federici, sócio do CNF Advogados, especialista em Direito Digital, a rápida evolução das tecnologias de IA e a crescente demanda por inovação podem levar a uma reavaliação da LGPD no futuro. “A legislação poderia equilibrar a proteção dos Dados pessoais com a promoção da inovação tecnológica, por exemplo através da criação de novas diretrizes específicas para o uso de IA, que permitam um uso mais flexível dos Dados, desde que haja transparência e consentimento dos usuários. A LGPD pode ser adaptada para incorporar melhores práticas internacionais e novas tecnologias, garantindo que a proteção de dados acompanhe o ritmo das inovações tecnológicas”, explica.

Na visão do especialista, a decisão da ANPD em barrar a Meta no uso de Dados considerados sensíveis de usuários para treinamento de IA aconteceu porque a mudança na política de privacidade não foi amplamente divulgada, e os usuários não foram informados de maneira clara e antecipada sobre o uso de seus Dados para treinamento de IA, assim como a opção de uso dos Dados foi ativada por padrão, sem um consentimento explícito dos usuários.

“O processo para que os usuários proíbam a utilização de suas informações pessoais foi considerado pouco intuitivo e difícil de acessar. Segundo informações públicas, a Meta não teria tratado adequadamente os Dados de crianças e adolescentes, conforme exigido pelo Estatuto da Criança e do Adolescente”, acrescenta Federici.

Para o advogado, a Meta poderia ser mais assertiva no endereçamento das informações, comunicando os usuários antecipadamente sobre mudança na política de privacidade, utilizando diferentes Canais de comunicação. Outras condutas seriam a solicitação do consentimento explícito dos usuários (em vez de ativar a opção por padrão), a simplificação do processo para que os usuários possam optar por não ter seus Dados utilizados e a implementação de medidas específicas para o tratamento de Dados de crianças e adolescentes.

“Essas ações poderiam ter mitigado as preocupações da ANPD e demonstrado um compromisso maior com a transparência e a proteção dos dados dos usuários”, conclui o advogado.

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.