Phát hiện loạt lỗ hổng ChatGPT cho phép kẻ tấn công đánh lừa AI và đánh cắp dữ liệu người dùng
Các nhà nghiên cứu an ninh mạng vừa cảnh báo về bảy lỗ hổng mới trong ChatGPT, có thể khiến dữ liệu cá nhân bị rò rỉ chỉ bằng những thao tác gián tiếp mà người dùng không hề hay biết.
.png)
Các chuyên gia bảo mật đã công bố một loạt lỗ hổng nghiêm trọng ảnh hưởng đến các phiên bản ChatGPT mới như GPT-4o và GPT-5, cho phép kẻ tấn công thực hiện hành vi đánh cắp dữ liệu thông qua kỹ thuật prompt injection tinh vi. Những lỗ hổng này tạo điều kiện để hacker điều khiển mô hình AI từ xa, thao túng kết quả trả lời và truy cập trái phép vào ký ức trò chuyện cũng như thông tin cá nhân của người dùng.
Theo phân tích, các lỗ hổng cho phép tấn công theo nhiều cách khác nhau, từ việc chèn chỉ dẫn độc hại vào website để ChatGPT tự tóm tắt và thực thi, đến việc lợi dụng URL có tham số “q=” để khiến ChatGPT chạy lệnh ngay khi người dùng mở đường link. Một số kỹ thuật còn khai thác cơ chế đánh dấu Markdown để che giấu nội dung nguy hiểm hoặc đầu độc bộ nhớ ChatGPT bằng những hướng dẫn ẩn trong nội dung trang web. Các lỗ hổng này đều dẫn đến nguy cơ AI bị thao túng, trả lời sai lệch hoặc tự động rò rỉ thông tin nhạy cảm mà người dùng không nhận ra.
Các chuyên gia an ninh mạng cảnh báo rằng những lỗ hổng này chỉ là một phần trong xu hướng tấn công mới, nơi kẻ gian chủ động lợi dụng hành vi của mô hình để vượt qua hàng rào bảo vệ. Nhiều nghiên cứu gần đây chỉ ra rằng các cuộc tấn công gián tiếp như PromptJacking, session smuggling hay kỹ thuật shadow escape cho phép kẻ xấu cài lệnh ẩn vào tài liệu, trang web hoặc kênh giao tiếp giữa các AI agent, từ đó tiếp cận dữ liệu hoặc thực thi hành động trái phép. Những kỹ thuật này không yêu cầu người dùng phải nhấp vào liên kết độc hại, mà lợi dụng chính quá trình AI thu thập và xử lý dữ liệu từ bên ngoài.
Bên cạnh đó, các nhà nghiên cứu còn cảnh báo về nguy cơ “đầu độc dữ liệu” khi mô hình AI được huấn luyện trên thông tin rác hoặc dữ liệu độc hại. Điều này có thể gây ra hiện tượng “brain rot”, khiến mô hình học sai lệch, làm tăng khả năng thao túng nội dung và lan truyền thông tin sai sự thật. Chỉ cần một số ít tài liệu bị đầu độc cũng đủ để ảnh hưởng đến hành vi tổng thể của mô hình, mở rộng thêm bề mặt tấn công trong tương lai.
Các chuyên gia nhận định rằng những phát hiện này là lời nhắc mạnh mẽ về việc AI càng được tích hợp sâu vào công cụ và hệ thống thì rủi ro bảo mật, an ninh mạng và quyền riêng tư càng tăng. Các nhà cung cấp mô hình cần đảm bảo những cơ chế bảo vệ như lọc URL, kiểm soát dữ liệu đầu vào và hạn chế truy cập ngữ cảnh đều hoạt động chính xác để giảm thiểu nguy cơ bị tấn công. Người dùng cũng cần thận trọng với các nội dung mình yêu cầu AI truy cập hoặc tóm tắt, tránh vô tình kích hoạt những mệnh lệnh bị che giấu.
Hương - Theo TheHackerNews