ChatGPT có thể bị tội phạm mạng lợi dụng để viết ra mã độc

www.tuoitre.vn -   31/01/2023 12:00:00 428

Trên thực tế, ngay từ trước khi giới giới hacker mũ đen sử dụng ChatGPT để viết mã độc, nhiều đối tượng trong số này đã có thể biết tận dụng chatbot AI này trong đủ các hoạt động lừa đảo khác nhau.

ChatGPT có thể bị tội phạm mạng lợi dụng để viết ra mã độc

Chẳng hạn, các chuyên gia bảo mật tại Checkpoint đã thử tạo ra một email lừa đảo có nội dung rất đáng tin. Cách thực hiện cũng khá đơn giản, khi các chuyên gia bảo mật yêu cầu ChatGPT tạo ra một email được gửi từ một đơn vị cung cấp dịch vụ lưu trữ trên web, vốn thực chất không tồn tại.

Các nhà chuyên gia bảo mật cũng trình bày cách họ yêu cầu ChatGPT viết các dòng code thuộc ngôn ngữ VBScript, vốn có thể nhúng vào một file trên Excel. Nếu một ai đó mở file Excel này, một tệp .exe sẽ âm thầm được tải xuống mà người dùng không hề hay biết.

Qua những ví dụ này, các chuyên gia bảo mật tin rằng đây là cách giới tội phạm mạng có thể lạm dụng mô hình trí tuệ nhân tạo như ChatGPT để tạo thành một 'chuỗi lây nhiễm hoàn chỉnh', từ việc lừa đảo qua email, cho tới tạo cửa hậu (backdoor) trong máy tính người dùng để các mã độc xâm nhập.

Trên thực tế, bản thân OpenAI hay bất kì nhà phát triển công cụ AI khác cũng lường trước được nguy cơ, là AI trở thành một con dao hai lưỡi nếu bị lạm dụng bởi những đối tượng xấu.

ChatGPT có thể bị tội phạm mạng lợi dụng để viết ra mã độc

Đơn cử, các bộ lọc và cơ chế điều khiển, vốn luôn được cải tiến không ngừng, đã được trình làng trong các công cụ AI để hạn chế việc lạm dụng công nghệ bởi những kẻ có ý đồ xấu.

Cũng phải nói thêm rằng, ở thời điểm hiện tại, việc các công cụ AI vẫn còn khá ‘sơ khai’ và chưa thực sự đáng tin, điều đó có thể khiến giới hacker mũ đen có đôi chút ngần ngại trong việc nhờ cậy trí tuệ nhân tạo. Tuy nhiên, khi các công cụ này càng hoàn thiện thêm, nguy cơ AI bị lạm dụng vẫn là mối lo ngại xét về mặt lâu dài, theo nhận định của nhiều chuyên gia bảo mật.

Để giới tội phạm mạng khó lạm dụng công nghệ hơn, các nhà phát triển sẽ cần đào tạo và cải thiện công cụ AI của chúng có thể xác định các yêu cầu bị nghi là phục vụ mục đích xấu, theo chuyên gia Shykevich. Cũng theo chuyên gia này, một tùy chọn khác có thể được xét đến, đó là áp dụng yêu cầu xác thực và ủy quyền để sử dụng công cụ OpenAI – tương tự như những gì các tổ chức tài chính trực tuyến hay dịch vụ thanh toán online đang làm.

Theo The HackerNews

TIN CÙNG CHUYÊN MỤC

Chiến dịch quảng cáo độc hại chiếm đoạt ...

31/10/2024 08:00:00 16
Các nhà nghiên cứu an ninh mạng đã phát hiện ra một chiến dịch quảng cáo độc hại đang diễn ra, lợi d...

Nghiên cứu mới tiết lộ lỗ hổng Spectre v...

30/10/2024 08:00:00 15
Hơn sáu năm sau khi lỗ hổng bảo mật Spectre ảnh hưởng đến bộ xử lý CPU hiện đại được phát hiện, một ...

Kaspersky phát hiện biến thể Lite mới củ...

29/10/2024 08:00:00 18
Tại Hội nghị thượng đỉnh phân tích bảo mật (SAS) 2024, Nhóm nghiên cứu và phân tích toàn cầu của Kas...

Trình duyệt Opera sửa lỗ hổng bảo mật lớ...

28/10/2024 08:00:00 17
Một lỗ hổng bảo mật hiện đã được vá trong trình duyệt web Opera có thể cho phép tiện ích mở rộng độc...

Apple mở mã nguồn PCC cho các nhà nghiên...

24/10/2024 12:00:00 17
Apple đã công khai cung cấp Môi trường nghiên cứu ảo (VRE) Private Cloud Compute (PCC), cho phép cộn...

Nhóm Lazarus khai thác lỗ hổng của Googl...

23/10/2024 08:00:00 11
Nhóm đe dọa Triều Tiên có tên là Lazarus Group đã bị quy cho tội khai thác lỗ hổng zero-day của một ...
Xem thêm

TAGS

LIÊN HỆ

Thông tin liên hệ