Đến năm 2025, các cuộc tấn công sử dụng AI vũ khí nhằm vào danh tính – thường không được nhìn thấy và rất khó khắc phục hậu quả – sẽ trở thành mối đe dọa lớn nhất đối với an ninh mạng của doanh nghiệp. Các mô hình ngôn ngữ lớn (Large Language Models – LLMs) đang trở thành công cụ quyền lực mới được các kẻ tấn công độc hại, tổ chức tội phạm mạng và các đội tấn công của quốc gia sử dụng.
Một khảo sát gần đây cho thấy, 84% lãnh đạo IT và an ninh mạng cho rằng các chiến thuật tấn công dựa trên AI – như phishing (lừa đảo qua email) và smishing (lừa đảo qua tin nhắn) – ngày càng phức tạp và khó phát hiện hơn. Kết quả là, 51% các nhà lãnh đạo an ninh mạng đang ưu tiên các cuộc tấn công sử dụng AI như mối đe dọa nghiêm trọng nhất đối với tổ chức của họ. Mặc dù phần lớn (77%) lãnh đạo an ninh mạng tự tin rằng họ hiểu rõ các phương pháp hay nhất để bảo mật AI, chỉ có 35% tin rằng tổ chức của họ hiện đã sẵn sàng đối phó với các cuộc tấn công AI, vốn dự kiến sẽ gia tăng đáng kể vào năm 2025.
Vào năm 2025, các Giám đốc An ninh Thông tin (CISOs) và đội ngũ an ninh mạng sẽ đối mặt với thách thức lớn hơn bao giờ hết trong việc nhận diện và ngăn chặn tốc độ gia tăng của các cuộc tấn công dựa trên AI đối nghịch – vốn đã vượt qua cả các hình thức an ninh AI tiên tiến nhất hiện nay. Năm 2025 sẽ đánh dấu thời điểm AI khẳng định vai trò thiết yếu của mình trong việc cung cấp khả năng giám sát mối đe dọa và điểm cuối theo thời gian thực, giảm sự quá tải cảnh báo cho các nhà phân tích tại Trung tâm Điều hành An ninh (SOC), tự động hóa quản lý vá lỗi, và nhận diện các deepfake với độ chính xác, tốc độ và quy mô cao hơn bao giờ hết.
AI Đối Nghịch (Adversarial AI): Deepfake và Sự Gia Tăng Gian Lận Danh Tính Tổng Hợp (synthetic fraud surge)
Deepfake hiện đang dẫn đầu trong các hình thức tấn công AI đối nghịch. Các cuộc tấn công này đã gây thiệt hại 12,3 tỷ USD cho doanh nghiệp toàn cầu trong năm 2023, con số được dự đoán sẽ tăng vọt lên 40 tỷ USD vào năm 2027, với tốc độ tăng trưởng kép hàng năm (CAGR) đạt 32%. Từ các nhóm tấn công lẻ tẻ đến các đội ngũ tấn công được tài trợ bởi các quốc gia, kẻ xấu không ngừng cải thiện chiến thuật, tận dụng các ứng dụng AI mới nhất cùng công nghệ chỉnh sửa video và âm thanh hiện đại. Các vụ deepfake được dự đoán sẽ tăng từ 50% đến 60% trong năm 2024, đạt 140.000 đến 150.000 trường hợp trên toàn cầu.
Theo Deloitte, các kẻ tấn công deepfake thường nhắm mục tiêu vào ngành ngân hàng và dịch vụ tài chính đầu tiên. Đây là hai lĩnh vực được coi là dễ bị tổn thương bởi các cuộc tấn công gian lận danh tính tổng hợp (synthetic identity fraud), vốn rất khó phát hiện và ngăn chặn. Deepfake liên quan đến gần 20% các trường hợp gian lận danh tính tổng hợp trong năm ngoái. Gian lận danh tính tổng hợp nằm trong số những hình thức khó nhận diện và ngăn chặn nhất, với thiệt hại dự kiến lên đến 5 tỷ USD trong các hệ thống tài chính và thương mại chỉ riêng trong năm nay. Trong số nhiều phương pháp ngăn chặn gian lận danh tính tổng hợp, năm phương pháp đã được chứng minh là hiệu quả nhất.
Trước mối đe dọa ngày càng tăng từ gian lận danh tính tổng hợp, các doanh nghiệp đang tập trung nhiều hơn vào quy trình onboarding (xác thực ban đầu) như một điểm mấu chốt để xác minh danh tính khách hàng và ngăn chặn gian lận. CEO của Telesign, Christophe Van de Weyer, chia sẻ trong một cuộc phỏng vấn với VentureBeat rằng: “Các công ty cần bảo vệ danh tính, thông tin đăng nhập và dữ liệu cá nhân nhận dạng (PII) của khách hàng, đặc biệt trong quá trình đăng ký.” Báo cáo Telesign Trust Index 2024 nhấn mạnh cách AI tạo sinh đã thúc đẩy mạnh mẽ các cuộc tấn công phishing, với dữ liệu cho thấy sự gia tăng 1265% các tin nhắn phishing độc hại và 967% các cuộc tấn công đánh cắp thông tin đăng nhập chỉ trong 12 tháng sau khi ChatGPT ra mắt.
AI Vũ Khí (Weaponized AI) Đang Trở Nên “Bình Thường Mới” – Nhưng Các Tổ Chức Vẫn Chưa Sẵn Sàng
“Chúng tôi đã nói từ lâu rằng các yếu tố như cloud, danh tính, công cụ quản lý từ xa, và thông tin xác thực hợp pháp đang trở thành mục tiêu của các kẻ tấn công vì việc hoạt động không bị kiểm soát trên endpoint (điểm cuối) ngày càng khó khăn hơn,” Elia Zaitsev, CTO của CrowdStrike, chia sẻ trong một cuộc phỏng vấn với VentureBeat.
“Kẻ tấn công đang trở nên nhanh hơn và việc tận dụng công nghệ AI là một phần của sự tiến hóa này. Bên cạnh đó, sử dụng tự động hóa và xâm nhập vào các lĩnh vực an ninh mới cũng là những yếu tố quan trọng, khiến các cuộc tấn công hiện đại không chỉ nhanh hơn mà còn nguy hiểm hơn,” Zaitsev nói.
Generative AI – “Nhiên liệu tên lửa” cho AI đối nghịch
Generative AI (AI tạo sinh) đang trở thành chất xúc tác mạnh mẽ cho AI đối nghịch. Chỉ trong vài tuần sau khi OpenAI ra mắt ChatGPT vào tháng 11 năm 2022, các kẻ tấn công lẻ tẻ và các băng nhóm tội phạm mạng đã tung ra các dịch vụ tấn công dựa trên AI tạo sinh theo hình thức đăng ký. FraudGPT là một trong những ví dụ nổi bật, từng tuyên bố có 3.000 người đăng ký.
Khi các ứng dụng, công cụ, nền tảng và kỹ thuật tấn công dựa trên AI đối nghịch ngày càng nở rộ, đa số các tổ chức lại chưa có sự chuẩn bị đầy đủ.
Các tổ chức vẫn chưa sẵn sàng đối phó với rủi ro từ AI
Hiện nay, cứ ba tổ chức thì có một thừa nhận rằng họ chưa có chiến lược cụ thể để đối phó với các rủi ro từ AI tạo sinh và AI đối nghịch. Báo cáo State of Cybersecurity 2024 của Ivanti cho thấy 74% doanh nghiệp đã bắt đầu chịu ảnh hưởng từ các mối đe dọa do AI thúc đẩy. Hơn nữa, 89% các lãnh đạo cấp cao tin rằng các mối đe dọa này chỉ mới bắt đầu.
Điều đáng chú ý trong nghiên cứu này là sự chênh lệch lớn giữa mức độ chuẩn bị thực tế của các tổ chức và mức độ đe dọa sắp xảy ra từ các cuộc tấn công AI đối nghịch.
Đối mặt với sự gia tăng của AI tấn công
6/10 lãnh đạo an ninh mạng cho biết tổ chức của họ hiện chưa sẵn sàng đối phó với các cuộc tấn công được hỗ trợ bởi AI.
Các mối đe dọa phổ biến nhất năm 2023 gồm:
- Phishing (lừa đảo qua email hoặc tin nhắn).
- Lỗ hổng phần mềm.
- Tấn công ransomware (mã độc tống tiền).
- Lỗ hổng liên quan đến API.
Các công cụ như ChatGPT và các nền tảng AI tạo sinh khác đã làm cho việc tạo ra những cuộc tấn công này trở nên ít tốn kém và dễ dàng hơn bao giờ hết. Với các dấu hiệu hiện tại, AI đối nghịch được dự đoán sẽ tăng vọt vào năm 2025, trở thành thách thức lớn nhất mà các tổ chức phải đối mặt.
Bảo Vệ Doanh Nghiệp Trước Các Mối Đe Dọa Từ AI
Kẻ tấn công hiện nay đang sử dụng sự kết hợp giữa AI tạo sinh (Generative AI), tấn công phi kỹ thuật (social engineering) và các công cụ AI để tạo ra ransomware khó phát hiện. Chúng xâm nhập vào mạng lưới, di chuyển ngang qua các hệ thống cốt lõi như Active Directory, giành quyền kiểm soát bằng cách khóa quyền truy cập và thu hồi các quyền quản trị sau khi cài đặt mã độc ransomware trên toàn bộ hệ thống.
Các doanh nghiệp cần hành động ngay lập tức để làm sạch quyền truy cập và xóa các tài khoản không còn sử dụng, bao gồm tài khoản của nhân viên cũ, nhà thầu và quản trị viên tạm thời. Việc loại bỏ những quyền truy cập lỗi thời này giúp giảm thiểu các khoảng trống mà kẻ tấn công có thể khai thác. Đồng thời, tổ chức nên áp dụng xác thực đa yếu tố (MFA) cho tất cả các tài khoản hợp lệ, thực hiện rà soát quyền truy cập định kỳ và triển khai quy trình tự động để thu hồi quyền khi cần thiết.
Một trong những chiến lược hiệu quả nhất là áp dụng mô hình zero trust đối với tất cả các endpoint và bề mặt tấn công, giả định rằng mạng lưới đã bị xâm phạm và cần được phân đoạn ngay lập tức để ngăn chặn sự lây lan. Mô hình này đặc biệt quan trọng trong bối cảnh các cuộc tấn công từ AI đang gia tăng, với mỗi endpoint đều có thể là điểm yếu dễ bị khai thác. Các doanh nghiệp cũng cần kiểm soát chặt chẽ danh tính máy móc, bao gồm các bot và thiết bị IoT, bằng cách sử dụng các công cụ quản lý danh tính được hỗ trợ bởi AI để ngăn chặn các cuộc tấn công khai thác lỗ hổng từ loại danh tính này.
Việc củng cố hệ thống quản lý danh tính và quyền truy cập (IAM) trên các cấu hình đa đám mây cũng là một bước quan trọng. Các cuộc tấn công dựa trên AI thường tận dụng những điểm không đồng nhất giữa các hệ thống IAM của các nền tảng đám mây khác nhau như AWS, Google Cloud Platform và Microsoft Azure. Để ứng phó, doanh nghiệp nên đánh giá lại các cấu hình IAM hiện tại, đồng thời triển khai các công cụ quản lý tư thế bảo mật đám mây (CSPM) để liên tục đánh giá và khắc phục các lỗi cấu hình.
Ngoài ra, việc giám sát cơ sở hạ tầng theo thời gian thực với sự hỗ trợ của AI là yếu tố thiết yếu để phát hiện các bất thường và vi phạm. Giám sát liên tục không chỉ giúp phát hiện các mối đe dọa mà còn cho phép điều chỉnh chính sách tức thời, từ đó củng cố các nguyên tắc zero trust và hạn chế các nỗ lực tấn công.
Cuối cùng, doanh nghiệp cần đưa hoạt động kiểm tra bảo mật (red teaming) và đánh giá rủi ro vào văn hóa tổ chức. Điều này không nên chỉ được thực hiện khi có tấn công xảy ra, mà cần trở thành một phần thường xuyên trong quy trình phát triển hệ thống, đặc biệt là khi hỗ trợ DevSecOps và MLOps. Việc đánh giá này giúp phát hiện trước các điểm yếu và ưu tiên khắc phục các lỗ hổng trong vòng đời phát triển hệ thống (SDLC). Bên cạnh đó, các doanh nghiệp nên cập nhật liên tục và áp dụng các khung phòng thủ AI phù hợp với mục tiêu của mình, chẳng hạn như NIST AI Risk Management Framework hoặc OWASP AI Security and Privacy Guide.
Trong bối cảnh các cuộc tấn công dựa trên dữ liệu tổng hợp (synthetic data) gia tăng, tổ chức cần tích hợp các phương thức xác thực sinh trắc học và không cần mật khẩu vào hệ thống IAM. Kẻ tấn công đang ngày càng sử dụng dữ liệu tổng hợp để giả mạo danh tính và truy cập vào mã nguồn hoặc kho lưu trữ mô hình. Việc kết hợp nhận dạng khuôn mặt, quét vân tay, nhận diện giọng nói với các công nghệ truy cập không mật khẩu sẽ giúp tăng cường bảo mật cho các hệ thống liên quan đến MLOps.
Thừa nhận khả năng bị xâm phạm là yếu tố then chốt
Đến năm 2025, các kỹ thuật AI đối nghịch (adversarial AI) được dự đoán sẽ phát triển nhanh hơn so với khả năng bảo vệ endpoint, danh tính và cơ sở hạ tầng của nhiều tổ chức. Giải pháp không nhất thiết phải là chi tiêu nhiều hơn, mà là tối ưu hóa và củng cố các hệ thống hiện có để kéo dài ngân sách và tăng cường bảo vệ trước làn sóng tấn công do AI điều khiển dự kiến xảy ra.
Hãy bắt đầu với mô hình Zero Trust và tùy chỉnh khung làm việc của NIST sao cho phù hợp với doanh nghiệp của bạn. Xem AI như một công cụ tăng tốc có thể cải thiện khả năng giám sát liên tục, tăng cường bảo mật cho các endpoint, tự động hóa việc quản lý bản vá quy mô lớn và hơn thế nữa. AI đã chứng minh khả năng đóng góp vào việc củng cố các khung Zero Trust, bao gồm thực thi quyền truy cập tối thiểu, cung cấp phân đoạn vi mô (microsegmentation), bảo vệ danh tính và nhiều khía cạnh khác. Những khả năng này sẽ càng trở nên rõ rệt vào năm 2025, khi các thế mạnh nội tại của AI ngày càng phát triển.
Bước vào năm 2025, các đội ngũ an ninh và IT cần giả định rằng mọi endpoint đều đã bị xâm phạm và tập trung vào những cách mới để phân đoạn chúng. Đồng thời, cần giảm thiểu các lỗ hổng ở cấp độ danh tính, vốn là điểm xâm nhập phổ biến cho các cuộc tấn công từ AI. Trong bối cảnh các mối đe dọa ngày càng gia tăng, việc chi tiêu đơn thuần sẽ không thể giải quyết vấn đề. Các chiến lược thực tiễn, thừa nhận thực tế rằng endpoint và chu vi bảo mật dễ bị xâm phạm, phải nằm ở trung tâm của mọi kế hoạch. Chỉ khi đó, an ninh mạng mới được coi là quyết định kinh doanh quan trọng nhất mà một công ty cần thực hiện, đặc biệt khi bức tranh mối đe dọa năm 2025 sẽ làm rõ điều này.
Chuyển ngữ: ChatGPT, Quốc Bảo hiệu đính.
Nguồn: https://venturebeat.com/security/protecting-enterprise-systems-against-ai-driven-threats/