A CG One esteve presente na RSA Conference 2025, o maior evento de cibersegurança do mundo, acompanhando de perto as principais discussões que vão moldar o futuro da proteção digital. Este é o primeiro de uma série de artigos que vamos publicar com os aprendizados mais relevantes que trouxemos de lá.
Entre os temas mais recorrentes, a transformação provocada pela inteligência artificial (IA) se destacou. Ela já não é uma promessa futura — é uma realidade que molda decisões, automatiza processos e amplia capacidades humanas em larga escala. Segundo dados apresentados pela Microsoft durante o evento, 75% dos trabalhadores do conhecimento no mundo já utilizam IA em seu dia a dia, e 95% das organizações estão adotando ou planejando adotar essas tecnologias.
No entanto, essa rápida adoção traz consigo um alerta urgente: os modelos generativos ampliam significativamente a superfície de ataque, introduzindo riscos inéditos que desafiam os controles tradicionais de segurança.
No entanto, essa praticidade vem acompanhada de novos riscos, especialmente relacionados ao vazamento de dados por aplicativos de mensagem.
Sem as devidas políticas de segurança digital e proteção cibernética, o uso indiscriminado desses aplicativos pode abrir portas para incidentes cibernéticos, exposição de informações confidenciais e graves prejuízos para as empresas.
O dilema da adoção: inovação vs. risco
Modelos como os LLMs (Large Language Models), utilizados em aplicações generativas, não apenas interpretam comandos e geram conteúdo — eles também se tornam pontos de entrada para ameaças sofisticadas, como:
- Prompt injection e jailbreaks (manipulação de instruções via entradas do usuário)
- Poisoning de dados de treino (inserção de conteúdo malicioso durante o aprendizado)
- Riscos de Shadow IT com plugins e extensões não monitoradas
- Exfiltração de dados sensíveis em interações com o modelo
- Quebra de intenção em apps verticais (financeiros, jurídicos, de saúde etc.)
O risco não é apenas técnico — é de confiança, reputação e conformidade. A IA que falha pode tomar decisões enviesadas, vazar informações estratégicas ou se tornar um vetor de ataque em escala corporativa.
- Implementar uma estratégia de Zero Trust para IA
É necessário repensar a arquitetura de segurança com base nos princípios de Zero Trust:
- Verificação explícita de cada interação e solicitação;
- Menor privilégio possível para ações automatizadas por IA;
- Assumir que todos os dados corporativos são parte da superfície de ataque.
Esse princípio deve se estender não só aos usuários e endpoints, mas também aos próprios modelos de IA e suas integrações.
- Criar uma equipe dedicada à segurança de IA
80% das organizações já possuem ou planejam formar uma equipe especializada em IA segura. Essas equipes devem unir:
- Red teams para IA, capazes de simular ataques como data leakage, evasão de modelo, execução remota de código e exploração via prompt;
- Especialistas em Responsible AI, focados em vieses, danos psicológicos, conteúdos ilegais e violações éticas.
A segurança de IA não deve ser delegada exclusivamente à área técnica — é um novo campo híbrido entre engenharia, risco e ética.
- Endereçar riscos existentes e emergentes
Os riscos em IA vão além das ameaças conhecidas:
- Injeção indireta de prompt (XPIA) via conteúdo malicioso em documentos ou fontes externas;
- Riscos emergentes em RAG (Retrieval-Augmented Generation) com dados desatualizados ou comprometidos;
- Quebra de intenção em assistentes corporativos, onde pedidos legítimos podem ser manipulados para vazar dados sigilosos.
A defesa exige atuação em todas as camadas: do desenvolvimento ao runtime, do treinamento ao monitoramento contínuo.
- Adotar soluções de segurança especializadas para IA
As ferramentas tradicionais não foram desenhadas para lidar com os desafios da IA generativa. É necessário adotar soluções que permitam:
- Classificação e governança de dados usados por IA
- Detecção de vulnerabilidades em modelos e aplicações baseadas em IA
- Proteção contra injeções de prompt e vazamentos de dados sensíveis
- Reforço da postura de conformidade em tempo real
Um exemplo citado é o DSPM (Data Security Posture Management) voltado para IA, que mapeia o uso da tecnologia e seus riscos associados de forma proativa.
O papel da segurança na confiança organizacional
A confiança na IA depende da confiança na sua segurança. A ausência de controles robustos pode sabotar iniciativas estratégicas, desacelerar a inovação e comprometer toda uma cadeia de valor digital.
A adoção acelerada de IA só é sustentável com segurança como fundação. Implementar controles desde o início, formar times especializados e adotar tecnologias específicas para IA não é mais opcional — é mandatário.
Empresas que negligenciam esses aspectos correm o risco de transformar um diferencial competitivo em um vetor de crise. Já aquelas que colocam a segurança no centro da jornada de IA estarão preparadas para inovar com confiança, responsabilidade e escala.
Conte com a CG One para evoluir a segurança digital do seu negócio com inteligência, estratégia e experiência.
A CG One é a evolução da marca Compugraf, com mais de 40 anos de atuação no mercado de tecnologia e cibersegurança. Seguimos lado a lado com nossos clientes para enfrentar os novos desafios trazidos pela transformação digital — incluindo a adoção segura e responsável da inteligência artificial. Acompanhe nossa série de artigos sobre a RSA Conference 2025 e conte com a CG One para transformar tendências em estratégias concretas de proteção para sua empresa.
Quer saber se sua empresa está de acordo com o NIST 2.0?
A CG One oferece um assessment gratuito de cibersegurança para avaliar a maturidade da cibersegurança da sua organização e identificar brechas de segurança no seu negócio de acordo com o Framework do NIST 2.0.