Baptista Luz

03/07/2024 Leitura de 4’’

O que é explicabilidade em IA?  

03/07/2024

Continuando a série de publicações sobre inteligência artificial generativa (IA), neste artigo discutiremos o tema de explicabilidade em IA. Se você ainda não teve a oportunidade de ler nossos artigos anteriores, convidamos a visitar o IA Hub, no qual poderá acessar outros textos da nossa série, incluindo: O que é Inteligência Artificial? / O que é IA Responsável? / Governança de Inteligência Artificial / Identificação e Avaliação dos Riscos em Inteligência Artificial/ Como controlar os riscos corporativos relacionados à IA?. Também te convidamos a seguir nossas redes sociais e se cadastrar em nossa newsletter especializada em IA!

Até o momento da publicação deste artigo, não existe uma obrigação legal específica para que as empresas forneçam mecanismos que permita a explicabilidade IA ou algo semelhante. No entanto, esta pode ser uma ferramenta poderosa para as empresas reafirmarem seu compromisso com as normas de transparência perante seus consumidores e se resguardarem em caso de eventuais queixas.

/ O fenômeno da black box e a explicabilidade

O “problema da black box” se relaciona ao fato de que existem ferramentas de IA que, a partir de um conjunto delimitado de dados, produzem um resultado cujo processo e lógica não é totalmente explicável por um ser humano; em outras palavras, o “raciocínio” adotado pela IA para chegar àquele resultado nem sempre é compreensível para nós:

Um estudo de Harvard aponta que modelos de Machine Learning com black box são aqueles algoritmos em que “os humanos, mesmo aqueles que os projetam, não podem entender como as variáveis estão sendo combinadas para fazer previsões.”

Disponível em: https://hdsr.mitpress.mit.edu/pub/f9kuryi8/release/8

Isso pode ser um problema para as empresas que desenvolvem e operam a IA, uma vez que prejudica a transparência do procedimento e pode limitar a capacidade de revisão humana,  instrumentos relevantes para uma governança ética e legal da IA em companhias. Com isso, há mais risco de que resultados indesejados, como decisões discriminatórias, conteúdos imprecisos e atos ilícitos ocorram 

/ O que é explicabilidade e como integrá-la às operações corporativas com IA?

A explicabilidade surge em contrapartida à black box e se relaciona à capacidade de explicação dos resultados gerados por uma IA por humanos, permitindo transparência à operacionalização da tecnologia:

Uma publicação do MIT define a explicabilidade como “a capacidade de identificar os fatores-chave que um modelo de IA utiliza na produção de seus resultados, sejam recomendações em um sistema de apoio à decisão ou ações em um processo automatizado. Ao mesmo tempo, a explicabilidade pode ser definida como o grau de compreensão humana sobre a tomada de decisão de um sistema de IA.”

Disponível em: https://mitsloanreview.com.br/post/a-explicabilidade-na-construcao-de-uma-inteligencia-artificial

Ou seja, explicabilidade em IA é sobre conseguir entender e explicar como e por que a IA tomou uma certa decisão ou gerou um certo resultado. Imagine que você está usando uma IA que recomenda filmes para você assistir. A explicabilidade seria a capacidade dessa IA te mostrar, de forma clara e simples, os motivos pelos quais ela sugeriu um determinado filme.

Implementar a explicabilidade às operações nas estruturas de modelos de governança de empresas pode ocorrer de diversas formas, tendo em vista que existe um leque variado de ferramentas e formas de permitir maior transparência às decisões da IA. Algumas delas são: a adoção de técnicas de explicabilidade ao desenvolvimento do algoritmo, preferência por utilização de modelos explicáveis, adoção de testes para a garantia da qualidade das explicações das decisões e a documentação do processo.

Estudos tem apontado três métodos principais para ajudar a fornecer essa transparência:

(i) precisão da previsão;

(ii) rastreabilidade;

(iii) compreensão da decisão.

Em suma, é necessária a integração da explicabilidade à IA desde o início de seu desenvolvimento, adotando ferramentas e métodos que permitam a explicação dos seus resultados e procedimentos.

Por isso, caso sua empresa desenvolva sistemas de IA, procure considerar estes pontos desde o início do desenvolvimento; mas, caso sua empresa contrate IA de terceiros, priorize a contratação de fornecedores que conseguem oferecer mecanismos mínimos de explicação.

Também é importante considerar a adoção de mecanismos que permitam a revisão humana de forma constante dos resultados, com uma avaliação regular da explicabilidade do sistema. Essa medida ajuda na correção de eventuais erros do sistema e eventual falta de explicabilidade da tecnologia.

 

 

 

Quer saber mais?

Entre em contato com os autores ou visite a página da área de Inteligência Artificial

Mais lidas:

Mais recentes:

Assine nossa newsletter

Inscreva-se para receber informações relevantes sobre o universo jurídico e tomar decisões informadas que vão impactar seus negócios.

Nós respeitamos a sua privacidade e protegemos seus dados pessoais de acordo com a nossa Política de Privacidade.

Baptista Luz