Registros de Riscos 4.0: Otimizando a Gestão de Riscos com a IA

A gestão de riscos moderna utiliza uma abordagem cíclica e depende da participação de todas as partes interessadas, conforme definido pela norma internacional ISO 31000:2018. O Processo de Gestão de Riscos ideal envolve a identificação contínua de riscos, análise, avaliação e tratamento dos mesmos, passando por análises críticas e monitoramento frequente.

Nesse contexto, o registro de riscos (risk register) é o documento central usado pela maioria das organizações, que consolida essas informações, incluindo identificadores únicos para cada risco, descrições dos riscos e de suas origens, critérios de probabilidades e consequências, definição de responsáveis, prazos e ações a serem a tomadas.

Esses registros são ferramentas cruciais para a gestão de riscos, porém, tendem a se tornar inconsistentes, repletos de redundâncias e omissões à medida que crescem. Com a complexidade crescente dos ambientes corporativos e a evolução constante das ameaças, manter esses registros atualizados e funcionais tornou-se uma tarefa exigente e propensa a erros.

Assim, como a Inteligência Artificial e os modelos de linguagem natural (LLMs) podem ajudar a aprimorar os registros de riscos, tornando-os mais claros e eficazes para a tomada de decisões?

Melhorando os Registros de Riscos com um Assistente de IA


Buscando solucionar o problema da deterioração da qualidade dos registros de riscos ao longo do tempo, o pesquisador Alexander Westergård desenvolveu um assistente de IA baseado em modelos de linguagem de grande porte (LLMs), com recursos complementares, como ferramentas estruturadas e geração aumentada por recuperação (RAG).

O sistema desenvolvido combina três componentes centrais:

  • Modelo de Linguagem (LLM): No caso, o modelo utilizado foi o GPT-4, acessado via Azure, combinado com o Google Gemini para tarefas multimodais. O LLM serve como núcleo interpretativo, compreendendo linguagem natural e gerando sugestões.

  • Retrieval-Augmented Generation (RAG): Técnica que permite ao modelo buscar informações em um banco de dados externo, aumentando a precisão e atualidade do conhecimento. Em vez de depender apenas de seu treinamento anterior (que pode estar desatualizado), o LLM consulta uma base embutida, garantindo respostas mais contextualizadas e específicas.
  • Ferramentas estruturadas: Funções adicionais programadas para realizar ações específicas, como listar categorias de riscos, sugerir fusões, propor novos riscos ou editar descrições existentes. O assistente pode usar essas ferramentas automaticamente conforme o contexto da solicitação.

A ferramenta não tem permissão para modificar o registro diretamente. Ela fornece suporte ao especialista, gerando sugestões e mantendo a supervisão humana, o que reforça a confiabilidade e a aceitação do sistema pelos usuários.

Alguns benefícios que podem ser gerados com o uso do assistente de IA: 

1. Identificação de Riscos mais Abrangente

Um dos desafios mais comuns na gestão de riscos é não saber o que se está perdendo. Riscos relevantes podem ficar de fora do registro por diversos motivos:

  • Falta de conhecimento técnico dos participantes;

  • Falhas na comunicação entre áreas;

  • Foco excessivo em riscos visíveis ou já conhecidos.

A IA pode mitigar esse problema ao escanear documentos, registros anteriores, legislações e bancos de dados internos em busca de padrões ou ameaças recorrentes que os profissionais talvez não tenham notado. 

Com o uso de RAG, por exemplo, o assistente pode recuperar documentos relevantes e propor riscos que não estavam originalmente no radar da equipe.

Além disso, a IA consegue operar com linguagem natural, o que indica que qualquer colaborador pode descrever riscos informalmente, e o assistente transformará tais descrições em riscos estruturados, com descrições formais, categorias e sugestões de ações.

2. Eliminação de Redundâncias e Riscos Duplicados

Em registros grandes, é comum encontrar múltiplos riscos descrevendo essencialmente o mesmo problema, mas com nomes ou ênfases diferentes. Isso gera confusão, aumenta a carga de trabalho e prejudica a clareza da análise.

No estudo de caso apresentado, o assistente de IA sugeriu a fusão de 30 riscos duplicados em apenas 9 riscos consolidados, uma redução significativa que preservou o conteúdo relevante e aumentou a coerência do registro.

O assistente também identificou sobreposições semânticas e redundâncias que passaram despercebidas pelos especialistas, como múltiplos riscos relacionados a IA e reputação. 

Esse processo de consolidação automatizado é um dos grandes trunfos da IA. O modelo é capaz de comparar descrições semanticamente similares, avaliar probabilidades e consequências relacionadas e sugerir a unificação com justificativas claras.

3. Harmonização das Descrições

Outro benefício relevante é a padronização das descrições dos riscos. Um dos problemas clássicos em registros construídos de forma colaborativa é a diversidade de estilos e níveis de detalhe: um risco pode estar descrito em termos vagos, enquanto outro é excessivamente técnico ou específico.

A IA ajuda a transformar esse caos em clareza, sugerindo descrições mais objetivas e alinhadas entre si, com vocabulário padronizado. No experimento conduzido com a empresa Inclus Oy, os participantes notaram uma melhora perceptível na coerência do conteúdo.

Riscos estavam descritos em níveis similares de abstração, com linguagem mais objetiva e estruturada, tornando o processo de avaliação de riscos muito mais fluido.

4. Aceleração do Processo de Análise

Manter um registro de riscos atualizado e útil exige esforço contínuo e tempo. Sem automação, revisar descrições, avaliar relevância, classificar prioridades e documentar ações pode ser uma tarefa morosa.

A IA reduz esse tempo drasticamente. No estudo, líderes que gastavam dois dias inteiros organizando registros conseguiram concluir o trabalho em poucos minutos com o auxílio do assistente de IA, mantendo ou até elevando a qualidade final do conteúdo.

Dessa forma libera-se tempo dos especialistas para que se concentrem em atividades estratégicas: avaliar os riscos mais críticos, planejar respostas e envolver stakeholders.

5. Melhora na Qualidade das Avaliações 

Os registros aprimorados pela IA mostraram-se mais completos, atuais e coerentes segundo os próprios participantes da pesquisa. A clareza nas descrições facilitou a interpretação dos níveis de incerteza, e a estrutura padronizada permitiu comparações mais precisas entre riscos.

Além disso, a IA pode auxiliar diretamente na classificação e priorização dos riscos, sugerindo valores de consequência e probabilidade com base nos dados históricos e nas tendências extraídas da base de conhecimento. Esses valores devem ser sempre validados por especialistas, mas servem como ponto de partida útil.

6.  Apoio à Tomada de Decisão com Supervisão Humana

É importante ressaltar que a IA não substitui o julgamento humano.

Ela serve como um copiloto - ajuda a organizar, sugerir, padronizar e recuperar informações - mas as decisões continuam nas mãos dos profissionais responsáveis. Esse equilíbrio entre automação e controle humano garante:

  • Confiabilidade no processo.

  • Transparência nas decisões.

  • Comprometimento dos envolvidos com a redução dos riscos.

Ao manter o profissional como "editor final", evita-se o risco de se aceitar sugestões imprecisas ou "alucinações" (respostas incorretas, mas plausíveis, geradas pela IA).

7. Fortalecimento da Gestão Participativa

O uso de IA também fortalece a gestão participativa de riscos. Como o assistente organiza e estrutura as informações de forma mais acessível, colaboradores de diferentes áreas passam a entender melhor o registro como um todo, sentindo-se mais envolvidos e capacitados para contribuir.

A clareza no conteúdo reduz a sensação de que o processo é burocrático ou inacessível. Isso aumenta a adesão das equipes e a eficácia das ações propostas.

Cuidados e Limitações na Aplicação da IA em Registros de Riscos

A empolgação com o potencial da inteligência artificial (IA) para transformar processos corporativos é compreensível, especialmente quando os ganhos em produtividade e qualidade são evidentes. Mas no caso da gestão de riscos, um campo em que decisões erradas podem ter consequências graves, a adoção de IA exige cautela e responsabilidade operacional.

Por mais avançada que seja a tecnologia, ela ainda apresenta limitações técnicas, éticas e operacionais que não podem ser ignoradas. Vejamos a seguir, os principais pontos de atenção que as organizações devem considerar ao integrar assistentes de IA em seus processos de gestão de riscos.

Alucinações e Erros Factuais

Um dos desafios enfrentados pelos LLMs, é a produção de informações falsas com aparência de verdade, chamadas de alucinações. Mesmo com acesso a bases de dados atualizadas via RAG, o modelo pode:

  • Inferir conexões inexistentes entre eventos ou riscos.

  • Exagerar na gravidade ou probabilidade de um risco.

  • Apresentar descrições imprecisas ou sem fundamento.

Dessa forma, o assistente pode sugerir um novo risco citando uma fonte que, na verdade, não apoia aquela conclusão, ou que nem trata do assunto. Isso pode induzir os usuários a confiar em informações incorretas.

Dependência Excessiva e “Automação Cega”

Quando os profissionais passam a confiar demais na IA, corre-se o risco de delegar as decisões críticas ao sistema. Essa dependência pode:

  • Reduzir a participação ativa dos colaboradores no processo de gestão de riscos.

  • Desincentivar a revisão cuidadosa das informações.

  • Levar à adoção de recomendações automáticas que não foram bem avaliadas.

Assim, o assistente de IA pode fazer sugestões valiosas, mas não deve ter autonomia para alterar registros, aprovar classificações ou excluir riscos sem validação humana.

Privacidade, Segurança e Confidencialidade dos Dados

Para que o assistente de IA funcione com precisão, é necessário acessar dados da organização, o que levanta preocupações com relação à segurança da informação, especialmente quando os modelos operam via nuvem ou serviços de terceiros.

Entre os riscos associados estão:

  • Vazamento acidental de dados sensíveis.

  • Armazenamento de informações críticas em servidores externos.

  • Treinamento da IA com dados da empresa (em serviços que não isolam as sessões de aprendizado).

Para contornar esses riscos, é importante:

  • Usar instâncias privadas e controladas dos modelos (via sistemas ou servidores internos, por exemplo).

  • Evitar o envio de dados sensíveis sem criptografia.

  • Ter políticas de governança de dados e compliance claras sobre o uso de IA.

Considerações Finais

A pesquisa demonstra que assistentes de IA podem trazer ganhos significativos em agilidade, clareza e organização de registros de riscos, especialmente em ambientes colaborativos e com grandes volumes de dados. Essa tecnologia ajuda a:

  • Reduzir redundâncias.

  • Harmonizar linguagem e formatos.

  • Detectar omissões e propor novos riscos com base em dados relevantes.

No entanto, o uso ético e seguro dos assistentes de IA exige:

  • Supervisão humana constante.

  • Transparência nos dados e nos processos de sugestão.

  • Integração da IA como apoio, e não como substituição ao julgamento humano.

O trabalho de Westergård contribui significativamente para a integração prática de IA em processos de gestão, oferecendo um modelo replicável e escalável para outras organizações e áreas que enfrentam desafios semelhantes na tomada de decisões baseada em riscos.

Fonte: "Improving risk registers with an AI assistant" - Alexander Westergård, Aalto University School of Science - 05/07/2025


 Para entender melhor como as ferramentas de IA podem ajudar a aprimorar os registros de riscos, conheça nosso novo treinamento 100% prático, voltado ao uso e aplicações da IA no Processo de Avaliação de Riscos: IA Aplicada à Identificação, Análise e Avaliação de Riscos.

• Para simular técnicas de risk assessment e auditorias com o suporte da IA, acesse e teste gratuitamente o Risk Assessor QSP, nosso novo Assistente de IA - treinado na norma NBR IEC 31010:2021 e em documentos específicos selecionados pelo QSP - para execução de técnicas qualitativas, semiquantitativas e quantitativas do processo de avaliação de riscos. 

 E, para colocar em prática as aplicações da IA Generativa em sua organização, utilize gratuitamente os demais bots especialistas do nosso SuperChatGPT | ISO31000.net, desenvolvidos e treinados pelo QSP em Gestão de Riscos e temas relacionados.