Como saber se seus dados estão sendo usados para treinar IA? Veja o que fazer
Plataformas digitais coletam informações pessoais para alimentar sistemas de IA, muitas vezes sem consentimento explícito dos usuários
Com o avanço acelerado da inteligência artificial (IA), cresce a preocupação sobre como empresas estão utilizando dados pessoais para treinar seus sistemas. Nos últimos anos, plataformas como LinkedIn, Meta e Google foram acusadas de coletar informações de usuários sem consentimento explícito, levantando questões sobre privacidade e transparência.
Muitas vezes, os usuários não estão cientes de que seus dados estão sendo utilizados para alimentar algoritmos de IA. A falta de clareza nas políticas de privacidade e a ausência de notificações adequadas contribuem para essa desinformação.
Diante desse cenário, é fundamental que os usuários estejam atentos aos sinais de que seus dados podem estar sendo usados para treinar sistemas de IA. A seguir, veja como identificar essa prática e o que fazer.
Políticas de privacidade vagas ou alterações sem aviso
Um dos principais indícios de que seus dados podem estar sendo utilizados para treinar IA é a presença de políticas de privacidade genéricas ou mudanças nos termos de uso sem notificação prévia. Empresas que atualizam suas políticas discretamente, sem informar os usuários, podem estar tentando ocultar práticas de coleta de dados.
Por exemplo, em 2024, o LinkedIn foi criticado por ativar por padrão a opção que permite o uso de dados dos usuários para treinar modelos de IA, sem notificação clara. Embora a plataforma tenha atualizado sua política de privacidade após repercussão negativa, a falta de transparência inicial gerou desconfiança.
Para se proteger, a recomendação é revisar periodicamente as políticas de privacidade das plataformas que utiliza e ficar atento a quaisquer mudanças, especialmente aquelas que envolvem o uso de seus dados para fins de treinamento de IA.
Outro caso do ano passado, foi quando a Meta começou a usar postagens, comentários e outros conteúdos de usuários do Facebook e Instagram para treinar seus sistemas de IA, com a justificativa de "interesse legítimo". Os usuários só souberam que a empresa usaria seus dados após e-mails obrigatórios enviados na Europa serem revelados por veículos de imprensa.
Em 2023, o Google atualizou seus termos de uso para informar que pode utilizar dados publicamente disponíveis na internet para treinar suas IAs, incluindo o Bard (hoje chamado de Gemini) e o Google Tradutor. A mudança ampliava a permissão anterior, que se limitava a dados usados para tradução, e nem todos os usuários estavam cientes porque a alteração não foi notificada.
Verificar configurações de privacidade ativadas por padrão
Outro sinal de alerta é quando plataformas ativam por padrão configurações que permitem o uso de seus dados para treinar IA, exigindo que o usuário desative manualmente essa opção. Essa prática, conhecida como "opt-out", coloca a responsabilidade sobre o usuário para proteger sua privacidade.
No caso do LinkedIn, a opção "Usar meus dados para treinar modelos de IA" para criar conteúdos foi ativada automaticamente para todos os usuários, sem aviso prévio. Para desativá-la, é necessário acessar as configurações de privacidade da conta e desmarcar a opção correspondente.
Ferramentas para verificar uso indevido de dados
Existem ferramentas que permitem aos usuários verificar se suas informações foram utilizadas para treinar modelos de IA. Uma delas é o site Have I Been Trained, que permite descobrir se suas fotos ou artes foram usadas para treinar diferentes tipos de IA.
Além disso, pesquisadores desenvolveram métodos como o "Membership Inference Test" (MINT), que avalia se dados específicos foram utilizados no treinamento de modelos de IA, com foco em imagens faciais.
Utilizar essas ferramentas pode ajudar a identificar possíveis usos indevidos de suas informações e tomar medidas para proteger sua privacidade.
