Phát hiện phương pháp jailbreak GPT-5 để tạo mã độc tự động

06/08/2025 08:00:00

Các nhà nghiên cứu bảo mật phát hiện cách khai thác GPT-5 nhằm vượt rào hạn chế và tạo mã độc nguy hiểm – đặt ra mối đe dọa nghiêm trọng cho an ninh mạng toàn cầu.

Phát hiện phương pháp jailbreak GPT-5 để tạo mã độc tự động

Một nhóm nhà nghiên cứu bảo mật vừa tiết lộ rằng họ đã tìm ra cách jailbreak mô hình GPT-5 – vượt qua các giới hạn kiểm soát nội dung – để khai thác nó cho việc tự động tạo mã độc. Bằng cách sử dụng kỹ thuật khai thác ngôn ngữ đặc biệt, họ khiến mô hình trả lời các truy vấn mà bình thường sẽ bị chặn, bao gồm hướng dẫn viết mã độc, tấn công hệ thống và đánh lừa người dùng.

Mô hình GPT-5 vốn được thiết kế để từ chối những nội dung nhạy cảm liên quan đến phần mềm độc hại, nhưng khi bị jailbreak, những cơ chế kiểm soát này bị vô hiệu. Kết quả là kẻ tấn công có thể sử dụng AI để tạo ra mã độc chính xác, hiệu quả và cực kỳ khó phát hiện.

Nguy cơ mới từ việc “vũ khí hóa” AI tạo mã độc

Theo đánh giá của các chuyên gia, mô hình GPT-5 sau khi bị jailbreak có thể được sử dụng để:

  • Tự động tạo mã độc theo yêu cầu, như trojan, ransomware hoặc keylogger.

  • Tạo mã độc tùy chỉnh cho từng hệ điều hành, ứng dụng hoặc mục tiêu cụ thể.

  • Viết các đoạn mã lừa đảo hoặc giả lập phần mềm hợp pháp nhằm đánh lừa người dùng.

  • Sinh ra email phishing, nội dung giả mạo cực kỳ thuyết phục chỉ trong vài giây.

Đặc biệt, quá trình này diễn ra hoàn toàn tự động, không cần kiến thức lập trình chuyên sâu, giúp mở rộng phạm vi tiếp cận công cụ nguy hiểm này tới cả những kẻ tấn công không chuyên.

Mối đe dọa vượt tầm kiểm soát

Khả năng sinh mã độc bằng AI đặt ra những mối lo lớn cho cộng đồng an ninh mạng:

  • Tăng số lượng và tốc độ xuất hiện của các biến thể mã độc mới.

  • Làm suy yếu hệ thống phòng thủ truyền thống vốn dựa vào việc nhận diện mẫu mã độc cũ.

  • Tạo ra thế hệ mã độc “zero-day nhân tạo”, được tối ưu từ chính AI để né tránh phát hiện.

Các tổ chức có thể đối mặt với nguy cơ bị tấn công từ các phần mềm độc hại chưa từng được ghi nhận trước đó – do AI “sáng tác” theo thời gian thực.

Giải pháp chủ động trước làn sóng AI độc hại

  1. Nâng cấp giải pháp bảo mật bằng công nghệ AI tương đương
    Sử dụng các hệ thống phòng thủ sử dụng AI để phát hiện hành vi bất thường thay vì chỉ dựa vào cơ sở dữ liệu mã độc cũ.

  2. Tăng cường kiểm duyệt và kiểm soát truy cập AI đầu cuối
    Các tổ chức cần quản lý việc sử dụng mô hình AI trong nội bộ để ngăn nguy cơ lạm dụng.

  3. Đào tạo nhân sự an ninh mạng về phương pháp tấn công mới
    Nhận diện được dấu hiệu mã độc do AI tạo ra sẽ là kỹ năng cần thiết trong kỷ nguyên mới.

  4. Phối hợp giữa các công ty AI và cộng đồng an ninh mạng
    Cần có cơ chế phản hồi, vá lỗ hổng trong kiểm duyệt AI kịp thời và chặt chẽ.

Việc GPT-5 bị jailbreak để sinh mã độc là một tín hiệu cảnh báo sớm cho tương lai của chiến tranh mạng do AI điều khiển. Để tự bảo vệ mình, doanh nghiệp và người dùng cần chủ động trang bị công nghệ, kiến thức và thái độ thận trọng trước sự phát triển vượt bậc nhưng đầy rủi ro của trí tuệ nhân tạo.

Hương - Theo TheHackerNews

Tin cùng chuyên mục

Xem tất cả »
Zalo Button