Hàng trăm ngàn dữ liệu tài khoản ChatGPT bị đánh cắp và rao bán trên mạng đen

www.tuoitre.vn -   28/06/2023 12:00:00 335

Tài khoản ChatGPT của bạn có thể không an toàn như bạn nghĩ. Theo một nghiên cứu mới được công bộ gần đây bởi tổ chức an ninh mạng Group-IB, đã có không dưới 100.000 thông tin đăng nhập tài khoản người dùng ChatGPT đã bị xâm phạm và đang bị rao bán trên một số nền tảng dark web lớn.

Hàng trăm ngàn dữ liệu tài khoản ChatGPT bị đánh cắp và rao bán trên mạng đen

Theo đó, công ty hàng đầu về an ninh mạng toàn cầu có trụ sở chính tại Singapore đã phát hiện ra tổng cộng 101.134 thiết bị bị lây nhiễm mã độc cắp thông tin đăng nhập ChatGPT lưu trong đó. Báo cáo cho thấy khu vực Châu Á - Thái Bình Dương có số lượng tài khoản ChatGPT bị phần mềm độc hại đánh cắp cao nhất (40,5%) trong khoảng thời gian từ tháng 6 năm 2022 đến tháng 5 năm 2023. Các khu vực bị ảnh hưởng nặng nề khác bao gồm Hoa Kỳ, Brazil, Ai Cập, Pháp, Maroc, Indonesia và Bangladesh. Việt Nam đứng thứ tư trong số 10 quốc gia với 4.771 tài khoản bị xâm phạm.

Nền tảng Threat Intelligence của Group-IB đã phát hiện ra các thông tin đăng nhập bị xâm phạm này trong nhật ký của hàng loạt phần mềm độc hại đánh cắp thông tin nổi tiếng như Raccoon, Vidar và RedLine, vốn đều đã được giao dịch trên các thị trường dark web bất hợp pháp trong hơn một năm qua. Vì loại phần mềm độc hại này hoạt động không chọn lọc nên nó ảnh hưởng đến càng nhiều máy tính càng tốt để thu thập càng nhiều dữ liệu càng tốt. Cao điểm vào tháng 5/2023, đã có 26.802 thông tin tài khoản ChatGPT bị mua bán.

Group-IB nhấn mạnh rằng xu hướng đưa ChatGPT vào kinh doanh và phát triển phần mềm ngày càng tăng cũng có nghĩa là thông tin nhạy cảm được chia sẻ ngày càng nhiều trên các nền tảng. Điều này khiến nó trở thành mục tiêu lý tưởng có thể bị lợi dụng để thu lợi bất hợp pháp.

Hàng trăm ngàn dữ liệu tài khoản ChatGPT bị đánh cắp và rao bán trên mạng đen

Khả năng lưu trữ các cuộc trò chuyện của ChatGPT có nghĩa là việc truy cập trái phép vào tài khoản có thể làm lộ thông tin độc quyền, chiến lược kinh doanh nội bộ, thông tin liên lạc cá nhân, mã phần mềm, v.v. Những lo ngại về những rủi ro tiềm ẩn liên quan đến ChatGPT đã khiến nhiều công ty lớn phải gấp rút thi hành hàng loạt chính sách nghiêm ngặt cấm sử dụng nền tảng này trên máy tính kết nối với hệ thống.

Sự phổ biến của ChatGPT cũng lan sang thế giới ngầm, theo Group-IB. Họ phát hiện nhiều hacker muốn lợi dụng chatbot để viết mã độc và thực hiện các hành vi độc hại khác.

Để giảm thiểu rủi ro liên quan đến ChatGPT, người dùng nên tắt tính năng lưu trò chuyện trong menu cài đặt của nền tảng. Đồng thời, việc xóa các cuộc hội thoại theo cách thủ công ngay sau khi sử dụng cũng có thể giúp bảo vệ thông tin nhạy cảm.

Ngoài ra, các chuyên gia cũng khuyến khích người dùng nên bật xác thực 2 yếu tố (2FA) khi họ được yêu cầu cung cấp mã xác minh bổ sung trước khi truy cập tài khoản ChatGPT của mình. Mặc dù điều này làm cho quá trình đăng nhập lâu hơn một chút, nhưng là một cách thiết yếu để tăng cường bảo mật tài khoản.

TIN CÙNG CHUYÊN MỤC

Nhiều trang web chống virus giả mạo này ...

31/05/2024 08:00:00 107
Các chuyên gia bảo mật đã quan sát thấy các tác nhân đe dọa sử dụng các trang web giả mạo giả dạng g...

Top mười từ khóa trên Google không nên t...

31/05/2024 12:00:00 96
Dưới đây là những từ khóa được khuyến cáo không nên tìm kiếm trên Google.

Các nhà nghiên cứu phát hiện hoạt động k...

30/05/2024 08:00:00 97
Các nhà nghiên cứu an ninh mạng đã cảnh báo rằng nhiều lỗ hổng bảo mật có mức độ nghiêm trọng cao tr...

Nội dung của người dùng sẽ bị Facebook t...

30/05/2024 12:00:00 82
Nội dung công khai của người dùng – không phải tin nhắn riêng tư – sẽ được Meta sử dụng để đào tạo v...

Microsoft cảnh báo về sự gia tăng các cu...

29/05/2024 08:00:00 88
Microsoft đã nhấn mạnh sự cần thiết phải bảo mật các thiết bị công nghệ vận hành (OT) có kết nối int...

Elon Musk tố dữ liệu người dùng trên Wha...

29/05/2024 12:00:00 64
Elon Musk tuyên bố rằng WhatsApp xuất tất cả dữ liệu người dùng mỗi đêm, vi phạm quyền riêng tư nghi...
Xem thêm

TAGS

LIÊN HỆ

Thông tin liên hệ