Tội phạm mạng lợi dụng ChatGPT viết mã độc và mối nguy cơ mới

www.tuoitre.vn -   09/02/2023 12:00:00 378

Kể từ khi OpenAI phát hành ChatGPT vào cuối tháng 11, nhiều chuyên gia bảo mật đã dự đoán rằng việc tội phạm mạng bắt đầu sử dụng chatbot AI này để viết phần mềm độc hại và thực hiện các hoạt động bất chính khác chỉ còn là vấn đề thời gian. Ngay vài tuần sau đó, quan điểm này đã được chứng minh là hoàn toàn có căn cứ.

Tội phạm mạng lợi dụng ChatGPT viết mã độc và mối nguy cơ mới

Trên thực tế, các nhà nghiên cứu tại Check Point Research (CPR) đã báo cáo về việc phát hiện ra ít nhất ba trường hợp các hacker mũ đen đã chứng minh cách chúng lợi dụng trí thông minh AI của ChatGPT cho mục đích xấu trên những diễn đàn ngầm.

Về cơ bản, ChatGPT là một chatbot AI được thiết kế với vai trò trợ giúp trong nhiều trường hợp, bao gồm phát triển code và gỡ lỗi. Một trong những điểm thu hút chính của nó là khả năng người dùng tương tác với chatbot theo cách trò chuyện và nhận hỗ trợ về mọi thứ, từ viết phần mềm đến tìm hiểu các chủ đề phức tạp, viết bài luận và email, cải thiện dịch vụ khách hàng và thử nghiệm nhiều tình huống kinh doanh hoặc thị trường khác nhau. Nhưng rõ ràng nó cũng có thể bị lợi dụng cho những mục đích đen tối.

Từ viết phần mềm độc hại đến thúc đẩy thị trường dark web

Một kẻ chuyên tạo phần mềm độc hại đã tiết lộ trong một diễn đàn mà những tội phạm mạng thường ghé thăm về cách hắn ta thử nghiệm ChatGPT để xem liệu có thể tái tạo các chủng và kỹ thuật phần mềm độc hại đã biết hay không.

Để chứng minh, tên này đã chia sẻ code về một trình đánh cắp thông tin dựa trên Python được phát triển bằng ChatGPT có thể tìm kiếm, sao chép và trích xuất 12 loại file phổ biến, chẳng hạn như tài liệu Office, PDF và hình ảnh từ hệ thống bị lây nhiễm. Tác giả phần mềm độc hại tương tự cũng cho thấy cách hắn ta đã sử dụng ChatGPT để viết code Java tải xuống PuTTY SSH và telnet client, sau đó chạy một cách bí mật trên hệ thống thông qua PowerShell.

Tội phạm mạng lợi dụng ChatGPT viết mã độc và mối nguy cơ mới

Vào ngày 21 tháng 12, một người khác đã đăng script Python tạo bằng chatbot này để mã hóa và giải mã dữ liệu bằng thuật toán mã hóa Blowfish và Twofish. Các nhà nghiên cứu CPR phát hiện ra rằng mặc dù code này có thể được sử dụng cho những mục đích hoàn toàn tốt, nhưng kẻ xấu có thể dễ dàng chỉnh sửa để code chạy trên hệ thống mà không cần bất kỳ tương tác nào của người dùng - biến nó thành ransomware.

Trong trường hợp thứ ba, các nhà nghiên cứu CPR đã tìm thấy một tên tội phạm mạng thảo luận về cách hắn ta sử dụng ChatGPT để tạo ra một thị trường Dark Web hoàn toàn tự động nhằm mua bán thông tin tài khoản ngân hàng và dữ liệu thẻ thanh toán bị đánh cắp, công cụ phần mềm độc hại, ma túy, đạn dược và nhiều loại hàng hóa bất hợp pháp khác.

"Để minh họa cách sử dụng ChatGPT cho các mục đích này, tội phạm mạng đã xuất bản một đoạn code sử dụng API của bên thứ ba để nhận giá tiền điện tử cập nhật (Monero, Bitcoin và [Ethereum]) như một phần của hệ thống thanh toán trong thị trường Dark Web." - nhà cung cấp bảo mật lưu ý thêm.

AI giúp kẻ xấu viết mã độc mà không cần kinh nghiệm

Mối lo ngại về việc các tác nhân đe dọa lạm dụng ChatGPT đã lan rộng kể từ khi OpenAI phát hành công cụ AI này vào tháng 11, trong đó nhiều nhà nghiên cứu bảo mật cho rằng chatbot đã hạ thấp đáng kể tiêu chuẩn viết phần mềm độc hại.

Ông Sergey Shykevich, quản lý nhóm tình báo về các mối đe dọa tại Check Point, nhắc lại rằng với ChatGPT, kẻ độc hại không cần có kinh nghiệm code để viết phần mềm độc hại: "Chỉ cần biết phần mềm độc hại - hoặc bất kỳ chương trình nào - nên có chức năng gì. ChatGTP sẽ viết code cho bạn để thực thi chức năng được yêu cầu".

Do đó, ông Shykevich cho rằng "mối quan tâm ngắn hạn chắc chắn là ChatGPT cho phép tội phạm mạng có kỹ năng thấp phát triển phần mềm độc hại". Về lâu dài, ông này cho rằng "tội phạm mạng tinh vi hơn cũng sẽ áp dụng ChatGPT để cải thiện hiệu quả hoạt động của chúng hoặc để giải quyết nhiều lỗ hổng khác nhau mà chúng có thể tìm ra".

Ông Brad Hong, giám đốc thành công của khách hàng tại Horizon3ai cho biết thêm, theo quan điểm của kẻ tấn công, các hệ thống AI tạo code cho phép kẻ xấu dễ dàng thu hẹp khoảng cách về kỹ năng mà chúng thiếu để thực hiện các cuộc tấn công. Những công cụ như vậy cung cấp phương tiện theo yêu cầu để tạo các loại code phù hợp với mục tiêu của kẻ tấn công và cắt giảm nhu cầu tìm kiếm thông qua những trang web dành cho nhà phát triển như Stack Overflow và Git - ông Hong cho biết trong một tuyên bố gửi qua email tới Dark Reading.

Ngay cả trước khi phát hiện ra các tác nhân đe dọa lạm dụng ChatGPT, Check Point - cũng như một số nhà cung cấp bảo mật khác - đã chỉ ra cách kẻ xấu có thể tận dụng chatbot trong các hoạt động độc hại. Trong một blog ngày 19 tháng 12, nhà cung cấp bảo mật đã mô tả cách các nhà nghiên cứu của họ tạo ra một email phishing nghe rất hợp lý, chỉ bằng cách yêu cầu ChatGPT viết email đến từ một dịch vụ webhosting hư cấu. Các nhà nghiên cứu cũng trình bày cách họ yêu cầu ChatGPT viết code VBS có thể dán vào workbook Excel để tải xuống file thực thi từ một URL từ xa.

Mục tiêu của thử nghiệm này là chứng minh cách những kẻ tấn công có thể lạm dụng các mô hình trí tuệ nhân tạo như ChatGPT để tạo ra một chuỗi lây nhiễm hoàn chỉnh ngay từ email phishing ban đầu cho đến chạy một reverse shell trên các hệ thống bị ảnh hưởng.

Cần có biện pháp hạn chế việc lạm dụng AI của tội phạm mạng

OpenAI và các nhà phát triển công cụ tương tự khác đã đưa vào những bộ lọc và tính năng kiểm soát - đồng thời không ngừng cải thiện chúng - để cố gắng hạn chế việc lạm dụng công nghệ của mình. Và ít nhất là tại thời điểm này, các công cụ AI vẫn còn chưa hoàn thiện và dễ mắc lỗi - điều này có thể cản trở một số ý đồ của kẻ xấu. Mặc dù vậy, nhiều người đã dự đoán khả năng các công nghệ này bị lạm dụng vẫn còn rất lớn trong thời gian tới.

Ông Shykevich cho biết, để khiến bọn tội phạm khó lạm dụng công nghệ hơn, các nhà phát triển sẽ cần đào tạo và cải thiện công cụ AI của họ để xác định những yêu cầu có thể được sử dụng theo cách tiêu cực. Tùy chọn khác là triển khai các yêu cầu xác thực và ủy quyền để sử dụng công cụ OpenAI. Ông lưu ý rằng ngay cả một thứ tương tự như những gì các tổ chức tài chính trực tuyến và hệ thống thanh toán hiện đang sử dụng cũng sẽ đủ để ngăn tội phạm mạng lợi dụng AI thực hiện những hành vi xấu.

TIN CÙNG CHUYÊN MỤC

Hội nghị đại lý “Let’s go Next: cybersec...

09/05/2024 10:00:00 188
Chiều ngày 7/5, Kaspersky đã có buổi hội nghị đại lý “Let’s go Next: cybersecurity redefined” tại So...

Họp báo ra mắt dòng sản phẩm chủ lực mới...

09/05/2024 09:00:00 133
Ngày 7/5, Kaspersky tự hào ra mắt giải pháp XDR tiên tiến Kaspersky Next, đồng thời chuyển đổi toàn ...

Google đã ngăn chặn 2,28 triệu ứng dụng ...

29/04/2024 08:00:00 262
Google hôm thứ Hai tiết lộ rằng gần 200.000 ứng dụng gửi tới Play Store dành cho Android đã bị từ ch...

Nhiều ứng dụng AI bị Apple gỡ khỏi App S...

29/04/2024 12:00:00 252
Apple đang tiến hành xử lý một danh mục ứng dụng tạo hình ảnh AI “quảng cáo khả năng tạo ra hình ảnh...

Để kiếm tiền từ Generative AI, các hãng ...

26/04/2024 12:00:00 287
Chi phí đằng sau Generative AI thực sự khá cao, vì nó đòi hỏi nhiều sức mạnh xử lý để đào tạo và vận...

Lỗ hổng bảo mật lớn phơi bày thao tác gõ...

25/04/2024 08:00:00 149
Các lỗ hổng bảo mật được phát hiện trong các ứng dụng bàn phím bính âm dựa trên đám mây có thể bị kh...
Xem thêm

TAGS

LIÊN HỆ

Thông tin liên hệ