Apple mở mã nguồn PCC cho các nhà nghiên cứu để xác định lỗi trong bảo mật AI đám mây
Apple đã công khai cung cấp Môi trường nghiên cứu ảo (VRE) Private Cloud Compute (PCC), cho phép cộng đồng nghiên cứu kiểm tra và xác minh các đảm bảo về quyền riêng tư và bảo mật của sản phẩm.
PCC, được Apple công bố vào đầu tháng 6 này, đã được tiếp thị là "kiến trúc bảo mật tiên tiến nhất từng được triển khai cho điện toán AI đám mây ở quy mô lớn". Với công nghệ mới, ý tưởng là chuyển các yêu cầu Apple Intelligence phức tạp về mặt tính toán lên đám mây theo cách không ảnh hưởng đến quyền riêng tư của người dùng.
Apple cho biết họ đang mời "tất cả các nhà nghiên cứu về bảo mật và quyền riêng tư — hoặc bất kỳ ai quan tâm và tò mò về kỹ thuật — tìm hiểu thêm về PCC và tự xác minh độc lập các tuyên bố của chúng tôi".
Để khuyến khích nghiên cứu hơn nữa, nhà sản xuất iPhone cho biết họ đang mở rộng chương trình Apple Security Bounty để bao gồm PCC bằng cách cung cấp các khoản thanh toán bằng tiền từ 50.000 đến 1.000.000 đô la cho các lỗ hổng bảo mật được xác định trong đó.
Điều này bao gồm các lỗi có thể cho phép thực thi mã độc trên máy chủ, cũng như các khai thác có khả năng trích xuất dữ liệu nhạy cảm của người dùng hoặc thông tin về yêu cầu của người dùng.
VRE hướng đến mục tiêu cung cấp một bộ công cụ giúp các nhà nghiên cứu thực hiện phân tích PCC từ máy Mac. Nó đi kèm với Bộ xử lý Secure Enclave ảo (SEP) và tận dụng hỗ trợ macOS tích hợp cho đồ họa ảo hóa để cho phép suy luận.
Apple cũng cho biết họ đang tạo mã nguồn liên quan đến một số thành phần của PCC có thể truy cập thông qua GitHub để tạo điều kiện cho việc phân tích sâu hơn. Điều này bao gồm CloudAttestation, Thimble, splunkloggingd và srd_tools.
"Chúng tôi đã thiết kế Private Cloud Compute như một phần của Apple Intelligence để thực hiện một bước tiến phi thường về quyền riêng tư trong AI", công ty có trụ sở tại Cupertino cho biết. "Điều này bao gồm việc cung cấp tính minh bạch có thể xác minh được - một thuộc tính độc đáo giúp nó khác biệt với các phương pháp AI dựa trên máy chủ khác".
Sự phát triển này diễn ra trong bối cảnh nghiên cứu sâu rộng hơn về trí tuệ nhân tạo (AI) tiếp tục khám phá ra những cách mới để bẻ khóa các mô hình ngôn ngữ lớn (LLM) và tạo ra kết quả ngoài ý muốn.
Đầu tuần này, Palo Alto Networks đã trình bày chi tiết về một kỹ thuật có tên là Deceptive Delight, bao gồm việc kết hợp các truy vấn độc hại và lành tính với nhau để đánh lừa các chatbot AI vượt qua các rào cản của chúng bằng cách tận dụng "khoảng chú ý" hạn chế của chúng.
Cuộc tấn công này yêu cầu tối thiểu hai tương tác và hoạt động bằng cách đầu tiên yêu cầu chatbot kết nối hợp lý một số sự kiện - bao gồm một chủ đề bị hạn chế (ví dụ: cách chế tạo bom) - và sau đó yêu cầu chatbot giải thích chi tiết về từng sự kiện.
Các nhà nghiên cứu cũng đã chứng minh được cái gọi là cuộc tấn công ConfusedPilot, nhắm vào các hệ thống AI dựa trên Retrieval-Augmented Generation (RAG) như Microsoft 365 Copilot bằng cách đầu độc môi trường dữ liệu bằng một tài liệu có vẻ vô hại chứa các chuỗi được tạo riêng.
"Cuộc tấn công này cho phép thao túng phản hồi của AI chỉ bằng cách thêm nội dung độc hại vào bất kỳ tài liệu nào mà hệ thống AI có thể tham chiếu, có khả năng dẫn đến thông tin sai lệch lan rộng và làm tổn hại đến quy trình ra quyết định trong tổ chức".
Hương – Theo TheHackerNews
TIN CÙNG CHUYÊN MỤC
ChatGPT sẽ báo lỗi nếu bạn hỏi về cái tê...
Cuộc tấn công Microsoft 365 mới có thể p...
Người dùng chưa đủ 18 tuổi sẽ không được...
Bộ công cụ lừa đảo mới Xiū gǒu nhắm vào ...
Kỹ thuật hack này có thể cách ly may tín...
Tính năng Email được bảo vệ mới của Gmai...
- BLACK FRIDAY khuyến mãi cực sốc – Bảo vệ máy tính ...
- Chương trình Khuyến mãi “Vòng quay may mắn” 2024
- Các mối đe dọa an ninh mạng tại Việt Nam gia tăng ...
- Hướng dẫn cài đặt và kích hoạt Kaspersky For Iphon...
- Các cuộc tấn công ransomware tiếp tục nhắm vào nhi...
- Hướng dẫn cài đặt và kích hoạt Kaspersky for Windo...
- ChatGPT sẽ báo lỗi nếu bạn hỏi về cái tên này
- Cuộc tấn công Microsoft 365 mới có thể phá vỡ hàng...
- Chương trình Khuyến mãi “Vòng quay may mắn” 2024
- Người dùng chưa đủ 18 tuổi sẽ không được dùng filt...
- Thông báo thời gian kì nghỉ công ty năm 2024
- Top 8 phần mềm chatbot AI miễn phí phổ biến hiện n...