Riscos da Inteligência artificial: as implicações de segurança do ChatGPT e outras tecnologias
Os profissionais de segurança precisam saber das implicações de segurança das tecnologias generativas de IA, como roubo de identidade e fraude. Saiba mais.
O lançamento do ChatGPT causou muito interesse e vontade de testá-lo. O ChatGPT conta com a mais recente geração de ferramentas de inteligência artificial generativa (GAI). À medida que aumenta a conscientização sobre o vasto universo de casos de uso potenciais de GAI, também vemos muitas preocupações com fraude e roubo de propriedade intelectual e até mesmo guerras fora de controle entre máquinas autônomas.
Neste blog, vamos nos focar em duas áreas as quais os líderes corporativos e os profissionais de segurança precisam estar atentos:
Roubo de identidade e fraude por cibercriminosos que usam IA para enganar sistemas de verificação de identidade e engenharia social auxiliar, conforme demonstrado em um relatório recente do 60 Minutes
Os riscos de segurança criados pelo uso de ferramentas de IA por funcionários, como vários incidentes na Samsung que ajudam a originar informes e proibições pelas empresas, incluindo Apple, Amazon, Verizon e JPMorgan Chase
Evitar a fraude e o roubo de identidade habilitado por IA
As ferramentas de inteligência artificial já apresentam um claro perigo de roubo de identidade. Com a habilidade de imitar vozes humanas, maneirismos e até mesmo padrões de fala, as ferramentas de GAI podem ser usadas para enganar métodos tradicionais de verificação de identidade, como chamadas de voz e vídeos ao vivo. A Agência Europeia para a Segurança das Redes e da Informação (ENISA) advertiu as organizações sobre possíveis ataques com apresentação de rostos, nos quais fotos, vídeos, máscaras e deepfakes são usados para personificar usuários para verificação de identidade. Como mencionado na reportagem do 60 Minutes, os correios de voz gerados por GAI podem enganar associados ou familiares a revelar senhas ou outras informações confidenciais para facilitar o roubo de identidade e várias outras atividades fraudulentas.
Embora o acesso ilegal a identidades habilitado por IA seja um desafio significativo de segurança, as organizações têm opções. Uma delas é detecção de prova de vida, uma abordagem em que o usuário precisa passar por uma série de verificações para provar ser real e estar presente no momento. Exemplos incluem:
Prova de vida facial passiva, que consegue reconhecer que um rosto é real sem precisar de movimento
Prova de vida facial ativa, na qual o usuário deve realizar ações específicas em uma ordem predeterminada
Declamar uma frase ao vivo
Senhas únicas ou PINs aleatórios que o usuário deve inserir
Em um relatório sobre prova de identidade remota, a ENISA recomenda a proteção contra fraudes de identidade habilitadas por IA por meio de medidas como a definição de um nível mínimo de qualidade de vídeo, verificar a profundidade do rosto do usuário para confirmar se é tridimensional e procurar por inconsistências de imagem resultantes de manipulação de deepfake.
À medida que a segurança cibernética avança em conjunto com as ameaças cibernéticas, é possível se proteger dos riscos impostos pela IA usando a própria IA:
As plataformas de autenticação que usam tecnologia de IA podem facilitar a determinação de se uma identidade biométrica é válida e se foi confirmada em uma pessoa em tempo real.
Os sistemas de gerenciamento de acesso de identidade por IA (AIM) podem usar análise comportamental para estabelecer um perfil abrangente de padrões normais de atividade para um usuário específico, incluindo tempo, local e ações, e, em seguida, sinalizar desvios da norma para exigir etapas adicionais de autenticação, como autenticação multifator ou com base em risco.
A tecnologia de autenticação adaptativa pode usar aprendizado de máquina (ML) para avaliar continuamente o comportamento do usuário e o contexto a fim de determinar o nível associado de risco. À medida que o nível de risco aumenta, os desafios de autenticação podem ser mais frequentes e restritos.
Minimizar os riscos de funcionários associados à IA
Os sistemas de Machine Learning (ML) e IA pública contam com duas características principais que aumenta seu risco:
Os serviços e produtos de IA/ML têm um portal voltado ao público que é uma oferta direta aos consumidores, sendo fácil e amplamente disponíveis a qualquer pessoa que quiser usá-los.
O registro de uma conta exige o consentimento explícito de um indivíduo a termos legais não negociáveis que são muito favoráveis à empresa de IA/ML, por exemplo, permitir que as informações inseridas como parte de uma pesquisa sejam usadas pelo sistema para treinamento adicional. Ou seja, se você insere a transcrição de uma reunião estratégica confidencial para gerar um resumo, o conteúdo dessa reunião pode ser aparecer integralmente em respostas a futuras consultas feitas pelo público geral.
O uso de sistemas de IA/ML pública pelos desenvolvedores e equipe de segurança também pode criar riscos significativos. A capacidade do ChatGPT de escrever e depurar código foi aclamada como uma vantagem potencial para a produtividade dos desenvolvedores. Em uma pesquisa recente do GitHub, 92 por cento dos programadores disseram já estar usando ferramentas de IA. Entretanto, sem um entendimento inato sobre contextos e conceitos de desenvolvimento, essas ferramentas podem introduzir facilmente vulnerabilidades severas de segurança que podem ser inseridas no ambiente de produção por usuários despercebidos.
Pelo lado da segurança, uma pesquisa verificou que 100 por cento dos entrevistados de SOC desejam usar ferramentas de IA não fornecidas pela empresa para trabalhar de modo mais fácil, eficiente e/ou eficaz. Devido às demandas de aumento de velocidade, complexidade e volume impostas a esses profissionais, isso é completamente compreensível, mas muito preocupante visto os muitos riscos conhecidos associados à shadow IT.
E em relação a notas de reuniões e outros conteúdos corporativos, o código inserido em uma consulta com a finalidade de depuração pode ser usado para treinar o algoritmo e ser incorporado no código gerado pela ferramenta para outros usuários.
Para fazer com que essa explosão de GAI não prejudique a segurança, os CISOs precisam agir com rapidez e cuidado para implementar políticas de regulamento do uso de ferramentas de IA em toda a empresa. Como referência, essas regras devem incluir:
Proibir o uso de ferramentas de IA não sancionadas
Proibir os funcionários e os fornecedores de inserir informações confidenciais, como códigos, notas sobre reuniões, propriedade intelectual e dados pessoais em qualquer consulta de IA
Incluir linguagem sobre o uso de ferramentas de IA em contratos de confidencialidade padrão
O estabelecimento de melhores práticas para regulamentar o uso por funcionários de ferramentas de IA incluem políticas que englobam:
Uso de dados. Por exemplo: Quaisquer dados corporativos classificados como Interno, Confidencial ou Restrito nunca devem ser alimentados em um sistema de IA/ML voltado ao público.
Garantia de qualidade. Por exemplo: Uma pessoa sempre deve verificar as informações de sistemas de IA/ML para conferir e validar a origem e a precisão.
Privacidade de dados. Por exemplo: Os usuários devem excluir imediatamente os dados pessoais confidenciais do sistema de IA/ML que não estejam relacionadas às suas atividades atuais.
Relatório de incidentes. Por exemplo: Se houver uma preocupação suspeita ou real de exposição de dados confidenciais a sistemas de IA/ML voltados ao público, isso deverá ser reportado imediatamente à equipe de segurança.
A IA pode ser uma ferramenta poderosa, mas também pode criar problemas de segurança graves. Ao tomar uma abordagem proativa, cuidadosa e intencional em relação às políticas de uso aceitáveis na empresa, além de ser vigilante quanto às ameaças potenciais externas, as empresas podem garantir que a onda atual de inovação de IA não sobrecarregue sua postura de segurança.
Publicações relacionadas