Entenda a proibição da Meta usar os seus dados nas redes para treinar a IA
Entenda a proibição da Meta usar os seus dados nas redes para treinar a IA
Medida cautelar se baseia na falta de comunicação e transparência, o que fere a Lei Geral de Proteção de Dados
Decisão da Autoridade Nacional de Proteção de Dados (ANPD), contra o uso de dados pessoais para que a Meta desenvolva sua IA, tem mais a ver com a falta de comunicação e transparência da empresa com os usuários das redes sociais e menos com a violação de direitos, avalia Henrique Fabretti, especialista em direito digital e proteção de dados.
A medida cautelar chegou após a Meta implementar sua nova política de privacidade, que abrange as plataformas Instagram, Facebook e Messenger. No documento, a bigtech determina a autorização de utilização de conteúdos compartilhados pelos usuários e disponíveis publicamente para o treinamento de IA generativa.
Caso a Meta descumpra a decisão, uma multa diária será cobrada no valor de R$ 50 mil. De acordo com a agência reguladora, a iniciativa fiscaliza a aplicação da nova política ao constatar “riscos de dano grave e de difícil reparação aos usuários”, além de indícios de violação da Lei Geral de Proteção de Dados.
“Na verdade, não existe um problema desses dados serem utilizados em si. O que a ANPD entendeu como um problema nessa decisão publicada ontem [terça-feira (3)], é que existiam desafios relacionados à transparência, justificativa legal e, também, sobre qual era o processo que esses usuários poderiam realizar para negar o uso de seus dados”, esclarece Fabretti.
Por conta dessa falta de transparência e diante da dificuldade em recusar o serviço, a ANPD entende que os usuários das plataformas da Meta compartilharam dados pessoais com a expectativa de se relacionar com “amigos, comunidade próxima e empresas de interesse”, sem o entendimento que suas informações seriam usadas no treinamento de IA.
É por esse motivo que o advogado Henrique Fabretti destaca a importância de ficar atento às novas tecnologias, pois “ainda não conhecemos os efeitos práticos e qual o impacto na sociedade”.
O especialista cita, inclusive, o Marco legal da Inteligência Artificial, que tramita no Congresso Nacional e tem o objetivo de, entre outras prioridades, estabelecer direitos a pessoas eventualmente afetadas pela IA, “justamente na ideia de que eu traga elementos para que esses riscos sejam corretamente identificados e que medidas de mitigação devem ser implementadas”, afirma.
Embora o Brasil tenha a Lei Geral de Proteção de Dados e o Congresso esteja discutindo o PL da Inteligência Artificial, Fabretti ressalta que ainda não somos um país avançado nestas questões e temos um longo caminho a percorrer. “Nós temos alguns reguladores, ou normas pontuais, que trazem regras relacionadas a IA, mas não temos uma legislação muito abrangente.”
A Autoridade Nacional de Proteção de Dados possui um mecanismo de denúncia, caso sinta que seus dados estejam sendo utilizados inapropriadamente. No entanto, ao se sentir prejudicado, o ideal é fazer um boletim de ocorrências e requerer seus direitos na justiça.