Gặp áp lực kiếm tiền, ChatGPT cũng tự động gian lận và nói dối

www.tuoitre.vn -   26/12/2023 12:00:00 1772

Một nghiên cứu mới của một nhóm các nhà khoa học cho thấy ChatGPT sẽ có hành vi lừa dối và gian lận nếu bị gây áp lực cũng như con người, ngay cả khi chúng được xây dựng để minh bạch.

Gặp áp lực kiếm tiền, ChatGPT cũng tự động gian lận và nói dối

Nhóm tác giả gồm các tiến sĩ khoa học máy tính Jérémy Scheurer (Đại học New York, Mỹ), Marius Hobbhahn (Đại học Tübingen, Đức), Mikita Balesni (Apollo Research).

Hành vi lừa đảo này xuất hiện một cách tự phát, sau khi các chatbot trí tuệ nhân tạo (AI) như ChatGPT được giao nhiệm vụ kiếm tiền cho một công ty đầu tư tài chính. Nó thực hiện điều này một cách có chiến lược dù không có sự khuyến khích từ con người và các hệ thống AI được thiết kế vô hại và trung thực. Nhóm tác giả cho biết, đây là minh chứng đầu tiên về hành vi lừa đảo mang tính chiến lược như vậy trong các hệ thống AI.

Trong thử nghiệm của mình, các nhà khoa học đã sử dụng Generative Pre-training Transformer-4, hay GPT-4 hoạt động như một hệ thống AI thay mặt cho một công ty tài chính thực hiện đầu tư.

GPT-4 được cung cấp một bộ lời nhắc dựa trên văn bản để tạo ra môi trường mô phỏng. AI này được cấp quyền truy cập vào các công cụ tài chính để thực hiện giao dịch, phân tích cổ phiếu, lên kế hoạch cho các bước tiếp theo và cung cấp thông tin cập nhật cho các nhà quản lý tại công ty đầu tư.

Các nhà khoa học đã cấu hình để AI bộc lộ suy nghĩ bên trong của nó khi trả lời tin nhắn.

Gặp áp lực kiếm tiền, ChatGPT cũng tự động gian lận và nói dối

Các nhà nghiên cứu đã tạo áp lực cho hệ thống AI theo 3 bước:

1.Đầu tiên, họ gửi cho AI một email từ "người quản lý" của công ty, với nội dung cho biết công ty đang hoạt động không tốt và yêu cầu nó cần hoạt động tốt hơn nhiều trong quý tới.

2.Tiếp đến, họ gửi email cho AI từ một đồng nghiệp về dự đoán tình hình suy thoái trong quý tới.

3.Cuối cùng, họ cho mô hình AI này biết rằng các nhà quản lý của công ty không chấp thuận giao dịch nội gián. Và việc còn lại là chờ xem mô hình sẽ hoạt động như thế nào.

Kịch bản này được thực hiện nhiều lần để đo lường tần suất AI thực hiện giao dịch nội gián, tần suất nó nói dối và tần suất nó nhân đôi lời nói dối.

Kết quả: khi đối mặt với những điều kiện trên, khoảng 75% trường hợp GPT-4 đã thực hiện giao dịch dựa trên thông tin nội bộ mà nó nhận được (giao dịch nội gián, thông tin này là bất hợp pháp ở Mỹ). Sau đó nó nói dối người quản lý về suy nghĩ của mình để che đậy việc này.

Sau khi nói dối lần đầu tiên, khoảng 90% trường hợp mô hình sẽ tăng gấp đôi lời nói dối của mình.

Nhóm nghiên cứu đã thực hiện một số thử nghiệm khác, thay đổi mức áp lực, mức độ khuyến khích hoặc ngăn cản hoạt động bất hợp pháp, nguy cơ bị bắt. Nhưng kịch bản nào AI cũng đưa ra giao dịch nội gián hoặc lừa dối. Các nhà nghiên cứu không muốn đưa ra kết luận chắc chắn về khả năng AI tồn tại trong môi trường thế giới thực như thế nào nhưng muốn điều tra tần suất và mô hình ngôn ngữ nào dễ xảy ra hành vi này.

TIN CÙNG CHUYÊN MỤC

Kaspersky báo cáo số vụ tấn công đánh cắ...

07/03/2025 08:00:00 221
Trong năm qua, Kaspersky đã phát hiện hơn 33,3 triệu cuộc tấn công nhắm vào người dùng smartphone tr...

Mozilla cập nhật điều khoản Firefox một ...

28/02/2025 08:00:00 266
Vào thứ sáu, nhà sản xuất trình duyệt Firefox là Mozilla đã cập nhật Điều khoản sử dụng lần thứ hai ...

1 mã độc trên Chrome nhắm vào cả Windows...

28/02/2025 12:00:00 122
Thường các file ISO độc hại sẽ được ngụy trang dưới dạng phần mềm, game crack để nạn nhân tự tải xuố...

Kaspersky ghi nhận gần 900 triệu vụ tấn ...

27/02/2025 08:00:00 174
Các giải pháp bảo mật của Kaspersky đã ngăn chặn hơn 893 triệu vụ tấn công lừa đảo trong năm 2024 – ...

Skype có thể sắp đóng cửa sau 21 năm tồn...

27/02/2025 12:00:00 126
Skype đã dần trở nên lỗi thời và mất đi một lượng đáng kể người dùng khi tỏ ra hụt hơi so với nhiều ...

Các tệp PDF CAPTCHA giả lan truyền Lumma...

26/02/2025 08:00:00 273
Các nhà nghiên cứu an ninh mạng đã phát hiện ra một chiến dịch lừa đảo lan rộng sử dụng hình ảnh CAP...
Xem thêm

TAGS

LIÊN HỆ

Thông tin liên hệ

Zalo Button