Cinco maneiras de usar IA de forma responsável

5 formas responsáveis de usar IA

Assim como os profissionais descobriram que é difícil transferir seus dados de um provedor de nuvem para outro, eles também devem estar cientes dos custos potenciais ao construir seus modelos de IA e infraestruturas de TI de suporte.

O aumento inexorável da inteligência artificial generativa (IA) e automação tem grandes implicações para profissionais e as organizações para as quais trabalham.

Tarefas operacionais estão sendo automatizadas e funções de trabalho estão sendo alteradas. No entanto, o impacto total dessa revolução nos negócios, funcionários, clientes e sociedade em geral é quase impossível de ser mensurado.

À medida que a IA é adotada e adaptada durante o restante desta década, os efeitos completos dessa transformação se tornarão mais claros. Por enquanto, um número crescente de profissionais está experimentando essas tecnologias emergentes, como ChatGPT e outras.

Também: Os melhores chatbots de IA: ChatGPT e outras alternativas notáveis

À medida que essas explorações ocorrem, a IA responsável – que a Accenture define como a prática de projetar, desenvolver e implantar IA com boas intenções – torna-se cada vez mais crítica.

No entanto, essa exigência de responsabilidade nem sempre está sendo cumprida: o relatório da consultoria mostra que apenas 35% dos consumidores confiam na forma como a IA está sendo implementada pelas organizações.

Portanto, à medida que os profissionais começam a aumentar o uso da IA, como podem garantir que eles e suas organizações estejam utilizando essa tecnologia emergente com responsabilidade em mente?

Essa é a principal prioridade para Carter Cousineau, vice-presidente de governança de dados e modelos da Thomson Reuters, especialista em notícias e informações, que ajuda sua empresa a utilizar IA e aprendizado de máquina de maneira responsável.

Assim como outras grandes empresas, a Thomson Reuters está apenas começando a explorar o potencial de muitas dessas tecnologias emergentes, especialmente a IA generativa.

No entanto, Cousineau diz que uma coisa já está clara a partir desses movimentos iniciais: “A IA responsável deve estar incorporada à ética ao longo de todo o ciclo de vida”.

Também: O boom atual da IA amplificará os problemas sociais se não agirmos agora

Suas opiniões sobre a importância da implementação ética da IA não se baseiam apenas em sua experiência na Thomson Reuters.

Ela foi diretora administrativa do Centro de Avanço da Inteligência Artificial Responsável e Ética na Universidade de Guelph. Seus interesses de pesquisa abrangem uma variedade de tópicos, desde interações humanas-computador até IA confiável.

Além de suas atividades acadêmicas, Cousineau – que conversou com a ENBLE na recente Snowflake Summit 2023 em Las Vegas – trabalhou com startups de tecnologia, organizações sem fins lucrativos, pequenas empresas e empresas Fortune 500.

Desde que ingressou na Thomson Reuters em setembro de 2021, ela tem colocado em prática algumas das coisas que aprendeu durante suas atividades de pesquisa.

“Tem sido empolgante entrar em uma corporação e pensar em como podemos influenciar e mudar a cultura para ajudar a impulsionar a confiança”, diz ela.

Também: A IA e aplicações avançadas estão sobrecarregando as infraestruturas de tecnologia atuais

Desde o momento em que os dados são utilizados até a desativação de um modelo, sua equipe global abrange o ciclo de vida da IA e garante que as informações e insights sejam utilizados de forma bem governada e ética.

Ela diz que existem cinco coisas importantes que os profissionais devem considerar se desejam utilizar a IA de maneira responsável.

1. Esteja preparado para regulamentações

Depois de estabelecer as bases para uma IA ética na Thomson Reuters, Cousineau agora está garantindo que os funcionários sigam esses princípios bem estabelecidos de forma contínua.

Ela reconhece, no entanto, que diferentes linhas de negócio têm diferentes requisitos para IA e automação. Além disso, essas demandas mudam à medida que mais pressão vem de legisladores externos.

Seja o Regulamento Geral de Proteção de Dados, a Lei de IA da UE ou regras pendentes sobre automação, sua equipe estabelece os controles e equilíbrios adequados para ajudar os funcionários da Thomson Reuters a inovar com dados e modelos de maneira flexível, mas também segura e protegida.

“Olhamos para todas essas regulamentações e garantimos que, quando surgem novas regras, estejamos preparados”, diz ela.

Também: Kit de ferramentas de ética em IA atualizado para incluir mais componentes de avaliação

2. Esteja aberto à mudança

Cousineau não é fã de empresas criando uma lista de verificação padronizada para IA e assumindo que o trabalho está pronto.

“Seus modelos – especialmente em IA generativa – continuam aprendendo. Seus dados continuam se transformando e há diferentes usos desses dados. Portanto, criar visibilidade de seus ativos de modelo de dados é enorme.”

Ela diz que a abertura à mudança em termos de obrigações legais é crucial, mas também há um ponto em que essa ênfase muda – e a abertura se torna operacionalmente benéfica também.

“É importante que suas equipes comecem a ver e entender como construir essa cultura de IA responsável porque eles precisam saber mais [sobre] como esses modelos de dados são usados através de uma lente de produtor ou consumidor.”

Também: Alerta de liderança: A poeira nunca vai assentar e a IA generativa pode ajudar

3. Utilize avaliações de impacto de dados

Seja um modelo utilizado na fase de prova de conceito em direção à produção, Cousineau diz que a Thomson Reuters verifica continuamente a IA responsável em todos os casos de uso.

Desde os primeiros dias da automação, sua equipe realiza avaliações de impacto de dados. Esse trabalho inicial tem se mostrado crucial à medida que novos casos de uso relacionados à IA generativa surgem.

“Nós nos associamos com o conselheiro geral e nossa abordagem utiliza lógica de pulo. Com base no seu caso de uso, ele o orientará para as etapas apropriadas ou preocupações éticas às quais você teria que responder, e solicita o caso de uso em questão”, diz ela.

“Essa abordagem constrói uma imagem que suporta necessidades de privacidade, governança de dados, governança de modelo e ética para o seu caso de uso. E é algo que nos permite reagir rapidamente. Portanto, à medida que obtemos os resultados dessa avaliação de impacto de dados, nossa equipe trabalha imediatamente na mitigação desses riscos em várias equipes – e os riscos são muito específicos.”

Também: Treine modelos de IA com seus próprios dados para mitigar riscos

4. Construa parcerias de confiança

Cousineau diz que a Thomson Reuters trabalha com uma variedade de indivíduos e organizações para garantir que privacidade, segurança e responsabilidade estejam no centro de todos os casos de uso de IA.

Essas parcerias abrangem linhas de negócios e vão além do firewall para incluir relacionamentos com clientes e parceiros de tecnologia, incluindo a Snowflake.

“Para mim, IA responsável significa colaborar com organizações confiáveis. Trata-se de construir uma infraestrutura e criar uma cultura colaborativa”, diz ela.

“Esse trabalho envolve garantir que seus modelos sejam transparentes, que você possa explicá-los e que sejam interpretáveis e tratem as pessoas e seus dados de forma justa. Também envolve considerar a sustentabilidade e o poder computacional necessário para alimentar seus modelos.”

Também: A Nvidia se une à Snowflake para IA em modelos de linguagem ampla

5. Esteja ciente dos custos financeiros

Por fim, ao começar a experimentar com IA, Cousineau diz que é crucial lembrar que ligar os sistemas pode ser mais fácil do que desligá-los.

Assim como os profissionais descobriram que é difícil mover seus dados de um provedor de nuvem para outro, eles também devem estar cientes dos custos potenciais ao construir seus modelos de IA e infraestruturas de TI de suporte.

Portanto, a IA responsável envolve pensar na exposição financeira de longo prazo.

Também: Estas são as minhas 5 ferramentas de IA favoritas para o trabalho

“Esteja ciente da complexidade dos custos”, diz ela. “Depois de incorporar a IA generativa ao seu caso de uso – e isso é algo que você deseja continuar usando no futuro – então é muito difícil migrar para outro modelo de linguagem diferente, porque ele aprendeu com aquele sistema. Portanto, o custo do trabalho de migração é muito complexo.”