O controle de riscos corporativos relacionados à IAG é uma valiosa ferramenta para as empresas mitigarem riscos à segurança, ética e desempenho. Para isso, as empresas precisam definir e seguir políticas consistentes e coerentes com seus princípios.
/ Administrando os riscos encontrados
Como visto anteriormente, existem várias técnicas para realizar a identificação de riscos em sistemas de IA. No nosso texto passado, comentamos a técnica desenvolvida pela WEF como exemplo, que envolve a investigação de 4 áreas-chave. Comentamos também sobre a avaliação do risco para a empresa, através de medidas como análise de impacto ou a probabilidade de ocorrência.
Após a identificação dos riscos ou vulnerabilidades no uso de IAG é importante tomar medidas adequadas para mitigar esses riscos. Algumas ações recomendadas são:
- Analisar e compreender os riscos: recomendamos que seja realizada uma avaliação minuciosa dos riscos identificados, considerando sua gravidade e a probabilidade de ocorrência.
- Revisar e aprimorar diretrizes: necessário certificar que as políticas e práticas em vigor estão alinhadas com as normas de governança responsável de IAG estabelecidas em sua empresa. Realizar as atualizações necessárias para enfrentar os riscos identificados é essencial nesse momento.
- Capacitar e instruir a equipe: certificar que os membros envolvidos no desenvolvimento, implementação e utilização dos sistemas de IAG estão devidamente instruídos e atualizados.
- Reforçar a estrutura de governança: fortalecer a governança responsável de IAG na empresa, assegurando a existência de responsabilidades claramente definidas para a administração dos riscos associados à tecnologia.
/ Instrumentos corporativos para a gestão dos riscos em IA
O Instituto Nacional de Padrões e Tecnologia dos EUA (NIST) sugere que os riscos identificados da IAG não sejam tratados de forma isolada, mas em conjunto com outras questões como cibersegurança. O intuito dessa recomendação é produzir um resultado com maior eficiência corporativa. O gerenciamento de riscos deve ser contínuo e realizado ao longo do ciclo de vida do sistema de IAG.
Na prática, existem vários instrumentos que podem ser utilizados para isso. A OpenAI, por exemplo, informa que seu processo de segurança e mitigação de riscos envolve três etapas: avaliação do risco e controlabilidade dos modelos de IA; consulta a especialistas externos; e implantação dos modelos conforme o risco. Após essas medidas, há o monitoramento e resposta a novas informações sobre as capacidades do modelo.
Bem como, também informam que alinham o comportamento dos sistemas com os valores éticos dos seus criadores e usuários. Em todo o ciclo da IA, especialistas devem examiná-la para verificar sua conformidade com a política adotada.
Empresas como a Google, por exemplo, também recomendam a adoção de ações para a gestão de riscos em IA. Segundo a empresa, é crucial automatizar as defesas para acompanhar as ameaças. A harmonização dos controles visa garantir uma segurança consistente em toda a organização. A adaptação desses controles é fundamental para ajustar as medidas de mitigação e criar ciclos de feedback mais rápidos durante a implementação de IAG.
Em resumo, existem várias abordagens para a gestão de riscos de IAG. Uma delas é a abordagem integrada, que sugere um gerenciamento contínuo ao longo de todo o ciclo de vida dos sistemas de IAG. Os instrumentos para isso podem incluir avaliação de riscos, consultas a especialistas externos e uma implantação cuidadosa de modelos. Além disso, recomenda-se alinhar o comportamento dos sistemas com os valores éticos da empresa. A adaptação contínua desses controles é essencial para ajustar as medidas de mitigação durante a implementação de sistemas de IAG.
Se você ainda não leu nossos conteúdos anteriores, recomendamos que acesse o IA Hub, onde encontrará os outros artigos de nossa série: O que é Inteligência Artificial? / O que é IA Responsável? / Governança de Inteligência Artificial / Identificando e avaliando riscos corporativos em Inteligência Artificial. Além disso, não deixe de acompanhar nossas redes sociais e se inscrever em nossa newsletter especializada em IA!