O Centro Nacional de Segurança Cibernética do Reino Unido (NCSC) lançou um alerta sobre o impacto que as ferramentas de inteligência artificial (IA) vão ter na cibersegurança mundial, intensificando as ameaças de ataques perigosos como o ransomware ou o phishing. A IA, que se prevê ser a grande protagonista da tecnologia mundial em 2024, tem sido promovida como uma melhoria em qualquer tipo de produto ou serviço. No entanto, a falta de regulamentação desta tecnologia tem permitido a sua utilização para fins maliciosos.
Desde que a IA generativa se tornou acessível ao grande público, tem sido amplamente utilizada para criar deepfakes, fake news e spam. Desenvolvimentos perigosos como o WormGPT, um chatbot semelhante ao ChatGPT, mas desenhado especificamente para facilitar as atividades dos ciberdelinquentes, têm sido vendidos em fóruns da Internet Profunda, confirmando a capacidade da IA para fins maliciosos.
Os ciberdelinquentes estão à frente de todos na Internet e não é surpreendente que utilizem as tecnologias mais avançadas. A IA está a permitir o aumento do número de ciberdelinquentes, incluindo pessoas sem experiência, hackers profissionais e e hackers pouco qualificados, que podem realizar ataques mais eficazes e personalizados que, de outra forma, requereriam muito tempo, conhecimento técnico e esforço operativo.
A maioria das plataformas de modelos de aprendizagem grandes (LLM) disponíveis, como o ChatGPT e o Bing Chat, têm proteções que impedem a criação de conteúdo malicioso. No entanto, o NCSC alerta que os ciberdelinquentes estão a criar e a comercializar serviços especializados de IA generativa desenhados especificamente para impulsionar atividades criminosas, como o WormGPT. Segundo a agência britânica, isto indica que a IA já escapou dos limites seguros e controlados, tornando-se acessível no ecossistema criminal mais amplo.
Os ciberdelinquentes, incluindo os desenvolvedores de ransomware, já estão a utilizar a IA para aumentar a eficiência e eficácia de vários aspetos das operações cibernéticas, como o reconhecimento, o phishing e a codificação. A IA tem o potencial de gerar malware que poderia evadir a deteção dos filtros de segurança atuais. No caso dos chamados ataques-nação, existe uma possibilidade realista de que os Estados altamente capacitados tenham depósitos de malware suficientemente grandes para treinar eficazmente um modelo de IA para estes propósitos.
O resultado é que os hackers de nível intermédio obterão vantagens principalmente em reconhecimento, engenharia social e extração de dados, enquanto que os atores de ameaças menos qualificados verão melhoradas as suas ‘façanhas’ em quase todos os domínios.
O papel da IA no panorama do risco cibernético será evolutivo, melhorando as ameaças existentes em vez de ser um fenómeno transformador. Ainda assim, o NCSC adverte que a IA generativa e os grandes modelos de linguagem tornarão muito difícil para todos, independentemente da sua experiência e nível de habilidade, identificar tentativas de phishing, usurpação de identidade e engenharia social.
Fonte: Ncsc