Baptista Luz

01/04/2024 Leitura de 4’’

Como controlar os riscos corporativos relacionados à inteligência artificial?

01/04/2024

O controle de riscos corporativos relacionados à IAG é uma valiosa ferramenta para as empresas mitigarem riscos à segurança, ética e desempenho. Para isso, as empresas precisam definir e seguir políticas consistentes e coerentes com seus princípios. 

 / Administrando os riscos encontrados 

Como visto anteriormente, existem várias técnicas para realizar a identificação de riscos em sistemas de IA. No nosso texto passado, comentamos a técnica desenvolvida pela WEF como exemplo, que envolve a investigação de 4 áreas-chave. Comentamos também sobre a avaliação do risco para a empresa, através de medidas como análise de impacto ou a probabilidade de ocorrência. 

Após a identificação dos riscos ou vulnerabilidades no uso de IAG é importante tomar medidas adequadas para mitigar esses riscos. Algumas ações recomendadas são:  

  1. Analisar e compreender os riscos: recomendamos que seja realizada uma avaliação minuciosa dos riscos identificados, considerando sua gravidade e a probabilidade de ocorrência.
  2. Revisar e aprimorar diretrizes: necessário certificar que as políticas e práticas em vigor estão alinhadas com as normas de governança responsável de IAG estabelecidas em sua empresa. Realizar as atualizações necessárias para enfrentar os riscos identificados é essencial nesse momento.
  3. Capacitar e instruir a equipe: certificar que os membros envolvidos no desenvolvimento, implementação e utilização dos sistemas de IAG estão devidamente instruídos e atualizados. 
  4. Reforçar a estrutura de governança: fortalecer a governança responsável de IAG na empresa, assegurando a existência de responsabilidades claramente definidas para a administração dos riscos associados à tecnologia. 

/ Instrumentos corporativos para a gestão dos riscos em IA 

O Instituto Nacional de Padrões e Tecnologia dos EUA (NIST) sugere que os riscos identificados da IAG não sejam tratados de forma isolada, mas em conjunto com outras questões como cibersegurança. O intuito dessa recomendação é produzir um resultado com maior eficiência corporativa. O gerenciamento de riscos deve ser contínuo e realizado ao longo do ciclo de vida do sistema de IAG.  

Na prática, existem vários instrumentos que podem ser utilizados para isso. A OpenAI, por exemplo, informa que seu processo de segurança e mitigação de riscos envolve três etapas: avaliação do risco e controlabilidade dos modelos de IA; consulta a especialistas externos; e implantação dos modelos conforme o risco. Após essas medidas, há o monitoramento e resposta a novas informações sobre as capacidades do modelo. 

Bem como, também informam que alinham o comportamento dos sistemas com os valores éticos dos seus criadores e usuários. Em todo o ciclo da IA, especialistas devem examiná-la para verificar sua conformidade com a política adotada. 

Empresas como a Google, por exemplo, também recomendam a adoção de ações para a gestão de riscos em IA. Segundo a empresa, é crucial automatizar as defesas para acompanhar as ameaças. A harmonização dos controles visa garantir uma segurança consistente em toda a organização. A adaptação desses controles é fundamental para ajustar as medidas de mitigação e criar ciclos de feedback mais rápidos durante a implementação de IAG.  

Em resumo, existem várias abordagens para a gestão de riscos de IAG. Uma delas é a abordagem integrada, que sugere um gerenciamento contínuo ao longo de todo o ciclo de vida dos sistemas de IAG. Os instrumentos para isso podem incluir avaliação de riscos, consultas a especialistas externos e uma implantação cuidadosa de modelos. Além disso, recomenda-se alinhar o comportamento dos sistemas com os valores éticos da empresa. A adaptação contínua desses controles é essencial para ajustar as medidas de mitigação durante a implementação de sistemas de IAG. 

Se você ainda não leu nossos conteúdos anteriores, recomendamos que acesse o IA Hub, onde encontrará os outros artigos de nossa série: O que é Inteligência Artificial? / O que é IA Responsável? / Governança de Inteligência Artificial / Identificando e avaliando riscos corporativos em Inteligência Artificial. Além disso, não deixe de acompanhar nossas redes sociais e se inscrever em nossa newsletter  especializada em IA! 

Quer saber mais?

Entre em contato com os autores ou visite a página da área de Inteligência Artificial

Mais lidas:

Mais recentes:

Assine nossa newsletter

Inscreva-se para receber informações relevantes sobre o universo jurídico e tomar decisões informadas que vão impactar seus negócios.

Nós respeitamos a sua privacidade e protegemos seus dados pessoais de acordo com a nossa Política de Privacidade.

Baptista Luz