A IA Generativa está deixando as empresas ainda mais sedentas pelos seus dados

Generative AI is making companies even more thirsty for their data.

O Zoom, a empresa que tornou normal participar de reuniões de negócios de pijama, foi forçado a se manifestar nesta semana para tranquilizar os usuários de que não usaria dados pessoais para treinar inteligência artificial sem o consentimento deles.

Um usuário atento do Hacker News na semana passada percebeu que uma atualização nos termos e condições do Zoom em março parecia dar à empresa total liberdade para coletar dados de voz, vídeo e outros e alimentá-los em sistemas de aprendizado de máquina.

Os novos termos afirmavam que os clientes “consentem com o acesso, uso, coleta, criação, modificação, distribuição, processamento, compartilhamento, manutenção e armazenamento de Dados Gerados pelo Serviço” pelo Zoom para fins, incluindo “aprendizado de máquina ou inteligência artificial (incluindo treinamento e ajuste de algoritmos e modelos)”.

A descoberta provocou artigos críticos e postagens indignadas nas redes sociais. Logo, o Zoom recuou. Na segunda-feira, a diretora de produtos do Zoom, Smita Hasham, escreveu um post no blog afirmando: “Não usaremos conteúdo de áudio, vídeo ou chat dos clientes para treinar nossos modelos de inteligência artificial sem o seu consentimento.” A empresa também atualizou seus termos para dizer o mesmo.

Essas atualizações parecem tranquilizadoras o suficiente, mas é claro que muitos usuários do Zoom ou administradores de contas empresariais podem clicar em “OK” nos termos sem perceber completamente o que estão entregando. E os funcionários obrigados a usar o Zoom podem não estar cientes da escolha feita pelo empregador. Um advogado observa que os termos ainda permitem que o Zoom colete muitos dados sem consentimento. (O Zoom não respondeu a um pedido de comentário.)

O problema com o esforço do Zoom para coletar mais dados é que isso reflete o amplo estado das coisas quando se trata de nossos dados pessoais. Muitas empresas de tecnologia já lucram com nossas informações, e muitas delas, como o Zoom, agora estão em busca de maneiras de obter mais dados para projetos de IA generativa. E, no entanto, cabe a nós, os usuários, tentar fiscalizar o que eles estão fazendo.

“As empresas têm um desejo extremo de coletar o máximo de dados possível”, diz Janet Haven, diretora executiva do think tank Data and Society. “Este é o modelo de negócio – coletar dados e construir produtos com base nesses dados, ou vender esses dados para corretores de dados.”

Os Estados Unidos não possuem uma lei federal de privacidade, deixando os consumidores mais expostos à fome de dados inspirada pelo ChatGPT do que as pessoas na União Europeia. A legislação proposta, como a Lei Americana de Privacidade e Proteção de Dados, oferece alguma esperança de fornecer regras federais mais rigorosas sobre coleta e uso de dados, e a Carta de Direitos de IA da administração Biden também exige proteção de dados por padrão. Mas, por enquanto, a resistência pública, como a resposta aos movimentos do Zoom, é a maneira mais eficaz de conter o apetite das empresas por dados. Infelizmente, esse não é um mecanismo confiável para detectar todas as decisões questionáveis ​​das empresas que tentam competir em IA.

Em uma era em que as tecnologias mais emocionantes e amplamente elogiadas são construídas sobre montanhas de dados coletados dos consumidores, muitas vezes de maneiras eticamente questionáveis, parece que novas proteções não podem chegar rápido o suficiente. “Cada pessoa deve tomar medidas para se proteger”, diz Havens. “Isso é antitético à ideia de que esse é um problema social.”