A gestão de riscos moderna utiliza uma abordagem cíclica e depende da participação de todas as partes interessadas, conforme definido pela norma internacional ISO 31000:2018. O Processo de Gestão de Riscos ideal envolve a identificação contínua de riscos, análise, avaliação e tratamento dos mesmos, passando por análises críticas e monitoramento frequente.
Nesse contexto, o registro de riscos (risk register) é o documento central usado pela maioria das organizações, que consolida essas informações, incluindo identificadores únicos para cada risco, descrições dos riscos e de suas origens, critérios de probabilidades e consequências, definição de responsáveis, prazos e ações a serem a tomadas.
Esses registros são ferramentas cruciais para a gestão de riscos, porém, tendem a se tornar inconsistentes, repletos de redundâncias e omissões à medida que crescem. Com a complexidade crescente dos ambientes corporativos e a evolução constante das ameaças, manter esses registros atualizados e funcionais tornou-se uma tarefa exigente e propensa a erros.
Assim, como a Inteligência Artificial e os modelos de linguagem natural (LLMs) podem ajudar a aprimorar os registros de riscos, tornando-os mais claros e eficazes para a tomada de decisões?
Melhorando os Registros de Riscos com um Assistente de IA
O sistema desenvolvido combina três componentes centrais:
- Modelo de Linguagem (LLM): No caso, o modelo utilizado foi o GPT-4, acessado via Azure, combinado com o Google Gemini para tarefas multimodais. O LLM serve como núcleo interpretativo, compreendendo linguagem natural e gerando sugestões.
- Retrieval-Augmented Generation (RAG): Técnica que permite ao modelo buscar informações em um banco de dados externo, aumentando a precisão e atualidade do conhecimento. Em vez de depender apenas de seu treinamento anterior (que pode estar desatualizado), o LLM consulta uma base embutida, garantindo respostas mais contextualizadas e específicas.
- Ferramentas estruturadas: Funções adicionais programadas para realizar ações específicas, como listar categorias de riscos, sugerir fusões, propor novos riscos ou editar descrições existentes. O assistente pode usar essas ferramentas automaticamente conforme o contexto da solicitação.
Alguns benefícios que podem ser gerados com o uso do assistente de IA:
1. Identificação de Riscos mais Abrangente
Um dos desafios mais comuns na gestão de riscos é não saber o que se está perdendo. Riscos relevantes podem ficar de fora do registro por diversos motivos:
-
Falta de conhecimento técnico dos participantes;
-
Falhas na comunicação entre áreas;
-
Foco excessivo em riscos visíveis ou já conhecidos.
A IA pode mitigar esse problema ao escanear documentos, registros anteriores, legislações e bancos de dados internos em busca de padrões ou ameaças recorrentes que os profissionais talvez não tenham notado.
Com o uso de RAG, por exemplo, o assistente pode recuperar documentos relevantes e propor riscos que não estavam originalmente no radar da equipe.
Além disso, a IA consegue operar com linguagem natural, o que indica que qualquer colaborador pode descrever riscos informalmente, e o assistente transformará tais descrições em riscos estruturados, com descrições formais, categorias e sugestões de ações.
2. Eliminação de Redundâncias e Riscos Duplicados
Em registros grandes, é comum encontrar múltiplos riscos descrevendo essencialmente o mesmo problema, mas com nomes ou ênfases diferentes. Isso gera confusão, aumenta a carga de trabalho e prejudica a clareza da análise.
No estudo de caso apresentado, o assistente de IA sugeriu a fusão de 30 riscos duplicados em apenas 9 riscos consolidados, uma redução significativa que preservou o conteúdo relevante e aumentou a coerência do registro.
O assistente também identificou sobreposições semânticas e redundâncias que passaram despercebidas pelos especialistas, como múltiplos riscos relacionados a IA e reputação.
Esse processo de consolidação automatizado é um dos grandes trunfos da IA. O modelo é capaz de comparar descrições semanticamente similares, avaliar probabilidades e consequências relacionadas e sugerir a unificação com justificativas claras.
3. Harmonização das Descrições
Outro benefício relevante é a padronização das descrições dos riscos. Um dos problemas clássicos em registros construídos de forma colaborativa é a diversidade de estilos e níveis de detalhe: um risco pode estar descrito em termos vagos, enquanto outro é excessivamente técnico ou específico.
A IA ajuda a transformar esse caos em clareza, sugerindo descrições mais objetivas e alinhadas entre si, com vocabulário padronizado. No experimento conduzido com a empresa Inclus Oy, os participantes notaram uma melhora perceptível na coerência do conteúdo.
Riscos estavam descritos em níveis similares de abstração, com linguagem mais objetiva e estruturada, tornando o processo de avaliação de riscos muito mais fluido.
4. Aceleração do Processo de Análise
Manter um registro de riscos atualizado e útil exige esforço contínuo e tempo. Sem automação, revisar descrições, avaliar relevância, classificar prioridades e documentar ações pode ser uma tarefa morosa.
A IA reduz esse tempo drasticamente. No estudo, líderes que gastavam dois dias inteiros organizando registros conseguiram concluir o trabalho em poucos minutos com o auxílio do assistente de IA, mantendo ou até elevando a qualidade final do conteúdo.
Dessa forma libera-se tempo dos especialistas para que se concentrem em atividades estratégicas: avaliar os riscos mais críticos, planejar respostas e envolver stakeholders.
5. Melhora na Qualidade das Avaliações
Os registros aprimorados pela IA mostraram-se mais completos, atuais e coerentes segundo os próprios participantes da pesquisa. A clareza nas descrições facilitou a interpretação dos níveis de incerteza, e a estrutura padronizada permitiu comparações mais precisas entre riscos.
Além disso, a IA pode auxiliar diretamente na classificação e priorização dos riscos, sugerindo valores de consequência e probabilidade com base nos dados históricos e nas tendências extraídas da base de conhecimento. Esses valores devem ser sempre validados por especialistas, mas servem como ponto de partida útil.
6. Apoio à Tomada de Decisão com Supervisão Humana
É importante ressaltar que a IA não substitui o julgamento humano.
Ela serve como um copiloto - ajuda a organizar, sugerir, padronizar e recuperar informações - mas as decisões continuam nas mãos dos profissionais responsáveis. Esse equilíbrio entre automação e controle humano garante:
-
Confiabilidade no processo.
-
Transparência nas decisões.
-
Comprometimento dos envolvidos com a redução dos riscos.
Ao manter o profissional como "editor final", evita-se o risco de se aceitar sugestões imprecisas ou "alucinações" (respostas incorretas, mas plausíveis, geradas pela IA).
7. Fortalecimento da Gestão Participativa
O uso de IA também fortalece a gestão participativa de riscos. Como o assistente organiza e estrutura as informações de forma mais acessível, colaboradores de diferentes áreas passam a entender melhor o registro como um todo, sentindo-se mais envolvidos e capacitados para contribuir.
A clareza no conteúdo reduz a sensação de que o processo é burocrático ou inacessível. Isso aumenta a adesão das equipes e a eficácia das ações propostas.
Cuidados e Limitações na Aplicação da IA em Registros de Riscos
A empolgação com o potencial da inteligência artificial (IA) para transformar processos corporativos é compreensível, especialmente quando os ganhos em produtividade e qualidade são evidentes. Mas no caso da gestão de riscos, um campo em que decisões erradas podem ter consequências graves, a adoção de IA exige cautela e responsabilidade operacional.
Por mais avançada que seja a tecnologia, ela ainda apresenta limitações técnicas, éticas e operacionais que não podem ser ignoradas. Vejamos a seguir, os principais pontos de atenção que as organizações devem considerar ao integrar assistentes de IA em seus processos de gestão de riscos.
Alucinações e Erros Factuais
Um dos desafios enfrentados pelos LLMs, é a produção de informações falsas com aparência de verdade, chamadas de alucinações. Mesmo com acesso a bases de dados atualizadas via RAG, o modelo pode:
-
Inferir conexões inexistentes entre eventos ou riscos.
-
Exagerar na gravidade ou probabilidade de um risco.
-
Apresentar descrições imprecisas ou sem fundamento.
Dessa forma, o assistente pode sugerir um novo risco citando uma fonte que, na verdade, não apoia aquela conclusão, ou que nem trata do assunto. Isso pode induzir os usuários a confiar em informações incorretas.
Dependência Excessiva e “Automação Cega”
Quando os profissionais passam a confiar demais na IA, corre-se o risco de delegar as decisões críticas ao sistema. Essa dependência pode:
-
Reduzir a participação ativa dos colaboradores no processo de gestão de riscos.
-
Desincentivar a revisão cuidadosa das informações.
-
Levar à adoção de recomendações automáticas que não foram bem avaliadas.
Assim, o assistente de IA pode fazer sugestões valiosas, mas não deve ter autonomia para alterar registros, aprovar classificações ou excluir riscos sem validação humana.
Privacidade, Segurança e Confidencialidade dos Dados
Para que o assistente de IA funcione com precisão, é necessário acessar dados da organização, o que levanta preocupações com relação à segurança da informação, especialmente quando os modelos operam via nuvem ou serviços de terceiros.
Entre os riscos associados estão:
-
Vazamento acidental de dados sensíveis.
-
Armazenamento de informações críticas em servidores externos.
-
Treinamento da IA com dados da empresa (em serviços que não isolam as sessões de aprendizado).
Para contornar esses riscos, é importante:
-
Usar instâncias privadas e controladas dos modelos (via sistemas ou servidores internos, por exemplo).
-
Evitar o envio de dados sensíveis sem criptografia.
-
Ter políticas de governança de dados e compliance claras sobre o uso de IA.
Considerações Finais
A pesquisa demonstra que assistentes de IA podem trazer ganhos significativos em agilidade, clareza e organização de registros de riscos, especialmente em ambientes colaborativos e com grandes volumes de dados. Essa tecnologia ajuda a:
-
Reduzir redundâncias.
-
Harmonizar linguagem e formatos.
-
Detectar omissões e propor novos riscos com base em dados relevantes.
No entanto, o uso ético e seguro dos assistentes de IA exige:
-
Supervisão humana constante.
-
Transparência nos dados e nos processos de sugestão.
-
Integração da IA como apoio, e não como substituição ao julgamento humano.
O trabalho de Westergård contribui significativamente para a integração prática de IA em processos de gestão, oferecendo um modelo replicável e escalável para outras organizações e áreas que enfrentam desafios semelhantes na tomada de decisões baseada em riscos.
Fonte: "Improving risk registers with an AI assistant" - Alexander Westergård, Aalto University School of Science - 05/07/2025