Cách bảo vệ dữ liệu của bạn khỏi bị lộ trong ChatGPT
ChatGPT đã thay đổi cách các doanh nghiệp tạo ra nội dung văn bản, điều này có khả năng dẫn đến bước nhảy vọt về năng suất. Tuy nhiên, đổi mới Generative AI cũng đưa ra một khía cạnh mới về rủi ro tiếp xúc với dữ liệu, khi nhân viên vô tình nhập hoặc dán dữ liệu kinh doanh nhạy cảm vào ChatGPT hoặc các ứng dụng tương tự. Các giải pháp DLP, giải pháp phù hợp cho những thách thức tương tự, lại không được trang bị đầy đủ để giải quyết những thách thức này vì chúng tập trung vào bảo vệ dữ liệu dựa trên tệp.
.png)
Một báo cáo mới của LayerX, "Nền tảng bảo mật trình duyệt: Bảo vệ dữ liệu của bạn khỏi bị lộ trong ChatGPT" (Tải xuống tại đây), làm sáng tỏ những thách thức và rủi ro khi sử dụng ChatGPT không được quản lý. Nó vẽ ra một bức tranh toàn cảnh về những mối nguy hiểm tiềm ẩn đối với doanh nghiệp và sau đó đưa ra một giải pháp tiềm năng: nền tảng bảo mật trình duyệt. Những nền tảng như vậy cung cấp khả năng giám sát và quản trị theo thời gian thực đối với các phiên web, bảo vệ hiệu quả dữ liệu nhạy cảm.
Các loại dữ liệu có nguy cơ bị lộ trong ChatGPT
- Thông tin nhạy cảm/nội bộ
- Mã nguồn
- Dữ liệu khách hàng
- PII được quy định
- Tệp kế hoạch dự án
Các nguy cơ tiếp xúc dữ liệu trong ChatGPT
- Tiếp xúc ngoài ý muốn: Nhân viên có thể vô tình dán dữ liệu nhạy cảm vào ChatGPT.
- Nội bộ độc hại: Một nhân viên lừa đảo có thể khai thác ChatGPT để lấy cắp dữ liệu.
- Tấn công có mục tiêu: Đối thủ bên ngoài có thể xâm phạm các điểm cuối và tiến hành trinh sát theo định hướng ChatGPT.
3 phương pháp phổ biến để giảm thiểu rủi ro phơi nhiễm dữ liệu trong ChatGPT
- Chặn truy cập: Hiệu quả nhưng không bền vững do giảm năng suất.
- Giáo dục nhân viên: Giải quyết tình trạng phơi nhiễm không chủ ý nhưng thiếu cơ chế thực thi.
- Nền tảng bảo mật trình duyệt: Giám sát và quản lý hoạt động của người dùng trong ChatGPT, giảm thiểu rủi ro một cách hiệu quả mà không ảnh hưởng đến năng suất.
Hương – Theo TheHackerNews