ChatGPT có thể bị tội phạm mạng lợi dụng để viết ra mã độc

www.tuoitre.vn -   31/01/2023 12:00:00 129

Trên thực tế, ngay từ trước khi giới giới hacker mũ đen sử dụng ChatGPT để viết mã độc, nhiều đối tượng trong số này đã có thể biết tận dụng chatbot AI này trong đủ các hoạt động lừa đảo khác nhau.

ChatGPT có thể bị tội phạm mạng lợi dụng để viết ra mã độc

Chẳng hạn, các chuyên gia bảo mật tại Checkpoint đã thử tạo ra một email lừa đảo có nội dung rất đáng tin. Cách thực hiện cũng khá đơn giản, khi các chuyên gia bảo mật yêu cầu ChatGPT tạo ra một email được gửi từ một đơn vị cung cấp dịch vụ lưu trữ trên web, vốn thực chất không tồn tại.

Các nhà chuyên gia bảo mật cũng trình bày cách họ yêu cầu ChatGPT viết các dòng code thuộc ngôn ngữ VBScript, vốn có thể nhúng vào một file trên Excel. Nếu một ai đó mở file Excel này, một tệp .exe sẽ âm thầm được tải xuống mà người dùng không hề hay biết.

Qua những ví dụ này, các chuyên gia bảo mật tin rằng đây là cách giới tội phạm mạng có thể lạm dụng mô hình trí tuệ nhân tạo như ChatGPT để tạo thành một 'chuỗi lây nhiễm hoàn chỉnh', từ việc lừa đảo qua email, cho tới tạo cửa hậu (backdoor) trong máy tính người dùng để các mã độc xâm nhập.

Trên thực tế, bản thân OpenAI hay bất kì nhà phát triển công cụ AI khác cũng lường trước được nguy cơ, là AI trở thành một con dao hai lưỡi nếu bị lạm dụng bởi những đối tượng xấu.

ChatGPT có thể bị tội phạm mạng lợi dụng để viết ra mã độc

Đơn cử, các bộ lọc và cơ chế điều khiển, vốn luôn được cải tiến không ngừng, đã được trình làng trong các công cụ AI để hạn chế việc lạm dụng công nghệ bởi những kẻ có ý đồ xấu.

Cũng phải nói thêm rằng, ở thời điểm hiện tại, việc các công cụ AI vẫn còn khá ‘sơ khai’ và chưa thực sự đáng tin, điều đó có thể khiến giới hacker mũ đen có đôi chút ngần ngại trong việc nhờ cậy trí tuệ nhân tạo. Tuy nhiên, khi các công cụ này càng hoàn thiện thêm, nguy cơ AI bị lạm dụng vẫn là mối lo ngại xét về mặt lâu dài, theo nhận định của nhiều chuyên gia bảo mật.

Để giới tội phạm mạng khó lạm dụng công nghệ hơn, các nhà phát triển sẽ cần đào tạo và cải thiện công cụ AI của chúng có thể xác định các yêu cầu bị nghi là phục vụ mục đích xấu, theo chuyên gia Shykevich. Cũng theo chuyên gia này, một tùy chọn khác có thể được xét đến, đó là áp dụng yêu cầu xác thực và ủy quyền để sử dụng công cụ OpenAI – tương tự như những gì các tổ chức tài chính trực tuyến hay dịch vụ thanh toán online đang làm.

Theo The HackerNews

TIN CÙNG CHUYÊN MỤC

Tesla bị rò rỉ 100GB dữ liệu, đối mặt ng...

30/05/2023 12:00:00 27
Thủ phạm gây ra của vụ rò rỉ dữ liệu này của Tesla là một nhân viên cũ bất mãn với công ty.

Dịch vụ đồng bộ ảnh trực tuyến My Photo ...

29/05/2023 12:00:00 22
Vai trò của của My Photo Stream dần trở nên dư thừa sau khi iCloud Photos xuất hiện, có thể hỗ trợ t...

Nhân viên IT bảo mật giả hacker tống tiề...

26/05/2023 12:00:00 15
Nhân viên IT tạo một địa chỉ email gần giống của hacker trước đó, và gửi thư cho CEO yêu cầu trả tiề...

Kaspersky chia sẻ các cách giúp đội ngũ ...

25/05/2023 08:00:00 50
Cảm thấy kiệt sức vì những công việc lặp đi lặp lại, trở nên kém tập trung hơn trong công việc hoặc ...

Trình duyệt Google Chrome có đang nghe l...

25/05/2023 12:00:00 13
Vì vấn đề này có liên quan đến sự an toàn và quyền riêng tư của mọi người nên nó cần phải được xem x...

Lỗ hổng mới trong Plugin WordPress được ...

24/05/2023 08:00:00 96
Một lỗ hổng bảo mật đã được tiết lộ trong plugin WordPress phổ biến Essential Addons cho Elementor c...
Xem thêm

TAGS

LIÊN HỆ

Thông tin liên hệ