O que as empresas precisam saber para criarem políticas seguras de uso de IA no dia a dia
Aprenda a criar uma política de uso seguro da inteligência artificial na empresa, mitigando riscos e garantindo governança e compliance.

O avanço da inteligência artificial no ambiente corporativo trouxe ganhos expressivos de eficiência, automação e inovação, mas também levanta um alerta de riscos significativos para as empresas em relação à segurança da informação.
Ferramentas abertas, como chatbots e geradores de texto, são hoje usadas por funcionários em diferentes áreas. Paralelamente, modelos de IA internos vêm sendo desenvolvidos para automatizar serviços, analisar dados e apoiar decisões estratégicas.
Diante desse cenário, as organizações começaram a discutir políticas de uso seguro de IA – tanto para orientar colaboradores quanto para mitigar riscos e preservar a segurança da informação e a reputação institucional.
Uma pesquisa da Kaspersky, empresa de cibersegurança, realizada em parceria com a consultoria Corpa, mostrou que 49% dos colaboradores brasileiros usam equipamentos corporativos para acessar redes sociais pessoais, compras online e consultas bancárias, e 38% para uso de serviços de inteligência artificial.
Além disso, 15% estariam dispostos a baixar aplicativos, softwares ou plataformas sem autorização prévia, 17% acessam sites pornográficos com equipamentos corporativos e 12% clicam em links de ofertas ou promoções sem verificar sua veracidade.
“Criminosos visam diretamente as pessoas, apostando que um simples clique em um link suspeito ou a instalação de um programa – até mesmo uma suposta atualização – seja suficiente para obter acesso à rede corporativa” diz Roberto Rebouças, gerente-geral da Kaspersky no Brasil.
Este risco poderia ser reduzido se os funcionários fossem orientados sobre o uso correto das tecnologias. Mas, segundo o mesmo levantamento, quatro em cada dez trabalhadores brasileiros não conhecem as políticas de segurança digital adotadas pelas empresas em que trabalham:
- 22% não sabem se sua empresa possui algum tipo de norma relacionada à segurança;
- 20% sabem que existe uma política, mas desconhecem seu conteúdo.
A rápida evolução das tecnologias
Para a consultora Cecília Seabra, pesquisadora e professora universitária na área de gestão de projetos digitais, as organizações devem centralizar as discussões em práticas de governança, de gestão de riscos e compliance, porque as tecnologias estão em constante e rápida evolução.
“Estamos falando de inteligência artificial, porque é o hype do momento, mas em outros tempos foram outras tecnologias. Lembramos da transição das redes sociais, da entrada do Facebook e todo o debate sobre isso. Foi quando surgiram os manuais de conduta. Estamos falando de discussões de governança, de gestão de risco e compliance nesse tempo todo. O grande desafio é manter essa discussão com o olho no futuro e na rápida evolução das coisas”, afirma Cecília.
Lígia Augusto, sócia de inteligência artificial responsável da EY, entretanto, avalia que “ainda que certas diretrizes de governança tecnológica, como as políticas de uso de redes sociais, possam oferecer um ponto de partida, a inteligência artificial exige abordagens próprias, dada sua complexidade e os impactos que pode gerar”.
“As políticas tradicionais raramente abordam aspectos cruciais como a explicabilidade dos algoritmos, a presença de vieses, a autonomia das máquinas e os novos riscos regulatórios”, explica Lígia. “Por isso, é essencial que a governança da IA seja adaptada às particularidades dessa tecnologia, levando em conta tanto seus riscos quanto suas oportunidades.”
A discussão sobre as políticas de uso seguro da IA – e das demais tecnologias – deve começar pelo reconhecimento dos riscos envolvidos. O mais evidente é o vazamento de dados sensíveis: o colaborador deve entender o quão perigoso é inserir informações de clientes, números financeiros ou segredos de negócio em ferramentas abertas.
Há também riscos legais, relacionados à Lei Geral de Proteção de Dados (LGPD), que exige responsabilidade no tratamento de dados pessoais.
Questões éticas e de reputação completam o quadro: algoritmos enviesados, decisões automáticas sem revisão humana ou uso inadequado de IA em processos seletivos podem gerar prejuízos à imagem e à credibilidade da organização.
Resultados produzidos por modelos, sejam internos ou abertos, devem ser sempre revisados por humanos, especialmente quando impactam clientes ou processos críticos.
Outro ponto essencial é a transparência: os colaboradores precisam saber como funcionam as ferramentas autorizadas, quais dados podem ser usados e de que forma o material envolvido no processo deve ser avaliado.
O papel do RH na disseminação de políticas de IA
Além da segurança técnica, o fator humano é determinante e, por isso, o papel do RH é estratégico. Cabe a esse setor acompanhar o desenvolvimento de programas e políticas de uso responsável da IA, além de disseminar essa cultura, promovendo treinamentos acessíveis que expliquem não apenas o funcionamento das ferramentas, mas também seus limites.
“O RH pode ser visto como o elo entre a política escrita e o comportamento real das pessoas. O objetivo é garantir que o uso da IA seja não só tecnicamente correto, mas também ético, compreensível e sustentável dentro da cultura organizacional”, afirma Lígia.
O departamento pode integrar a política de IA a outras normas já existentes, como as de segurança da informação e de ética corporativa, além de incluir cláusulas sobre uso adequado da tecnologia em contratos de trabalho e processos de avaliação.
Também é responsabilidade desse setor ouvir os funcionários, coletando feedbacks sobre dificuldades, dúvidas e resistências, garantindo que a política não seja apenas um documento formal, mas parte viva da cultura da empresa.
“A Ernst & Young desenvolveu um framework de IA responsável que inclui avaliações de risco detalhadas, inventário de sistemas e processos padronizados para garantir operações seguras e compliance contínuo”, complementa Lígia. Segundo a especialista, a experiência mostra que o engajamento dos colaboradores e a análise detalhada dos sistemas existentes são essenciais para uma implementação do uso de IA eficaz e sustentável.
Como criar uma política de uso de IA na empresa
Para criar uma política de uso de IA clara, abrangente e sustentável, é recomendável seguir algumas etapas práticas.
O primeiro passo é formar uma equipe multidisciplinar que envolva TI, segurança da informação, jurídico, compliance e RH. Esse time deve mapear os usos atuais da tecnologia, desde experimentos individuais com ferramentas abertas até modelos já implementados em processos internos.
É importante que as lideranças de equipes diversas estejam envolvidas – já que estão próximas do dia a dia dos colaboradores. Na Renault, por exemplo, os líderes passaram por treinamentos logo no início da transformação digital. O foco era letramento digital e uso responsável da IA.
“Se eu não gerar inquietude, não vou conseguir fazer a roda girar”, afirma Silvana Pampu, HR general manager da Renault Latam.
As empresas devem avaliar os riscos de cada aplicação, classificando-os em níveis de criticidade e estabelecendo regras proporcionais. A partir daí, a política deve ser formalizada em linguagem clara, com exemplos concretos do que é aceitável ou proibido, além de instruções de revisão, monitoramento e registro de uso.
Muitas empresas estão desenvolvendo ferramentas próprias para reduzir o uso dos modelos abertos. A Renault, por exemplo, criou uma versão customizada do ChatGPT para proteger informações sensíveis em projetos estratégicos.
“A EY investiu em plataformas próprias como o EYQ, o maior LLM (Large Language Model) privado do mundo, e em infraestrutura robusta de dados, consolidando ambientes e ferramentas para garantir proteção e compliance”, conta David Dias, sócio e líder de inteligência artificial para mercados da empresa de consultoria.
Ele observa, porém, que a criação de ferramentas internas ou o desenvolvimento de modelos proprietários de IA pode fortalecer “significativamente” a segurança da informação – mas não elimina completamente os riscos. Por isso, é essencial adotar políticas de segurança rigorosas e realizar auditorias frequentes.
De olho no futuro – cada vez mais rápido
É importante que a política de uso das tecnologias não seja estática. Assim como novas ferramentas e aplicações surgem rapidamente, o documento oficial precisa ser revisado periodicamente para incorporar novas metodologias, legislações e incidentes de segurança que sirvam de aprendizado.
Os treinamentos também devem ser contínuos e adaptados a diferentes áreas da empresa – o uso de IA no marketing não é o mesmo que no setor jurídico ou no atendimento ao cliente, por exemplo.
“Na EY, iniciamos a nossa jornada em inteligência artificial com base em três pilares fundamentais: governança, letramento e aplicações seguras. Para isso, foram criadas políticas globais de uso responsável da IA, alinhadas a princípios éticos e programas de capacitação massiva em GenAI para seus colaboradores, com trilhas de conhecimento adaptadas às diferentes funções”, afirma David.
Outro ponto importante é a definição de mecanismos de auditoria, registro de incidentes e consequências para usos inadequados, garantindo coerência entre discurso e prática.
Leia mais:
- O papel do RH na introdução de tendências
- AI First: qual o papel do RH na implementação da novidade
- Os impactos da tecnologia no mercado de trabalho

Luciane Scarazzati é jornalista e acredita no poder transformador da informação e da educação. Atuou nas equipes que lançaram a CNN Brasil e o site de notícias G1 e também trabalhou em outros importantes veículos de imprensa, como TV Globo, UOL e Jornal da Tarde.