
Theo các chuyên gia bảo mật của Kaspersky, có 3 hình thức tấn công tội phạm mạng đã lợi dụng AI gồm:
– ChatGPT có thể được sử dụng để phát triển các phần mềm độc hại và tự động triển khai các cuộc tấn công đến nhiều nạn nhân.
– Chương trình AI xâm nhập dữ liệu của người dùng trên điện thoại thông minh. Thông qua quá trình phân tích dữ liệu nhạy cảm, kẻ xấu hoàn toàn có thể “đọc trộm” tin nhắn, mật khẩu và mã ngân hàng của nạn nhân.
– Thuật toán tối ưu bầy đàn (Swarm intelligence) giúp các mạng lưới máy tính tự động (bonet) khôi phục những mạng lưới độc hại đã bị giải pháp an ninh loại trừ.
Nghiên cứu toàn diện của Kaspersky về việc sử dụng AI để bẻ khóa mật khẩu chỉ ra rằng hầu hết các mật khẩu đều được mã hoá thông qua các thuật toán hàm băm như MD5 và SHA.
Chỉ cần một thao tác đơn giản là có thể biến đổi mật khẩu thành một dòng văn bản mã hóa, nhưng đảo ngược cả quy trình lại là một thử thách lớn. Dù vậy, tình trạng mật khẩu bị rò rỉ từ những cơ sở dữ liệu diễn ra thường xuyên, gây ảnh hưởng đến nhiều doanh nghiệp non trẻ lẫn những doanh nghiệp đi đầu trong lĩnh vực công nghệ.
Vào tháng 7.2024, bảng tổng hợp mật khẩu lớn nhất lịch sử đã bị phát tán trực tuyến, bao gồm 10 tỉ mật khẩu dưới dạng văn bản và 8,2 tỉ mật khẩu chứa ký tự đặc biệt.
Ông Alexey Antonov – Trưởng nhóm Khoa học dữ liệu tại Kaspersky, cho biết 78% mật khẩu người dùng có khả năng bị bẻ khóa bằng nhiều cách khác nhau, chỉ có 7% mật khẩu đủ mạnh để phòng chống các cuộc tấn công lâu dài.
Dùng AI để tấn công phi kỹ thuật (Social Engineering)
Thông qua AI, kẻ xấu có thể khai thác các nội dung lừa đảo, bao gồm văn bản, hình ảnh, âm thanh và video để triển khai tấn công phi kỹ thuật. Những mô hình ngôn ngữ lớn (large language model) như ChatGPT-4o được tận dụng để tạo ra kịch bản và tin nhắn lừa đảo vô cùng tinh vi.
Vượt qua rào cản ngôn ngữ, AI có thể viết ra một email chân thật, chỉ cần dựa vào thông tin trên mạng xã hội. Thậm chí, AI có thể bắt chước văn phong của nạn nhân. Điều này càng khiến hành vi lừa đảo khó phát hiện hơn.
Song song, Deepfake hiện hữu như một “vấn nạn” trong an ninh mạng, dù trước đó được xem là sản phẩm nghiên cứu khoa học. Mạo danh người nổi tiếng để trục lợi tài chính là cách thức phổ biến nhất, tiếp đến kẻ lừa đảo còn sử dụng Deepfake để đánh cắp tài khoản, gọi điện mạo danh tới bạn bè và người thân của nạn nhân nhằm chiếm đoạt tài sản.
Vào tháng 2 năm 2024, một cuộc gọi video lừa đảo đã diễn ra tại Hồng Kông (Trung Quốc). Mô phỏng cuộc họp trực tuyến, kẻ lừa đảo sử dụng Deepfake đóng giả giám đốc điều hành, thuyết phục nhân viên tài chính chuyển 25 triệu USD.
Lỗ hổng an ninh của AI
Bên cạnh lợi dụng công nghệ AI vào những hoạt động phi pháp, kẻ xấu còn có thể tấn công những thuật toán AI, với 2 cách như sau:
– Tấn công “tiêm lệnh” (Prompt Injection attacks): Nhập những câu lệnh độc hại vào các mô hình ngôn ngữ lớn, thậm chí đi ngược những quy tắc đã bị hạn chế trước đó.
– Tấn công đối kháng (Adversarial attacks): Thêm những trường thông tin ẩn vào hình ảnh, hoặc âm thanh, để gây ảnh hưởng đến khả năng phân loại hình ảnh của hệ thống học máy.
AI dần được tích hợp vào mọi khía cạnh trong đời sống con người, từ Apple Intelligence, Google Gemini cho đến Microsoft Copilot. Vì vậy, việc giải quyết những lỗ hổng AI nên là ưu tiên hàng đầu.