Con người và thuật toán đều bị Deepfake đánh lừa theo cách khác nhau
Các nghiên cứu cho thấy con người và những công cụ phát hiện AI mới nhất có khả năng xác định các tác phẩm deepfake tương tự nhau. Tỷ lệ thành công có thể thay đổi từ 50% đến 90+%, tùy thuộc vào thông số thử nghiệm.
.jpg)
Nói rộng ra, con người và máy móc cũng bị đánh lừa bởi các tác phẩm deepfake ở mức độ tương tự. Tuy nhiên, điều quan trọng là con người dễ bị tổn thương theo nhiều cách khác nhau và đây có thể là tài sản lớn nhất của chúng ta trong việc giải quyết những mối nguy hiểm của công nghệ deepfake. Việc kết hợp điểm mạnh của con người và các công cụ phát hiện deepfake sẽ giảm thiểu điểm yếu và cải thiện tỷ lệ thành công.
Ví dụ, nghiên cứu của MIT cho thấy con người xác định những tác phẩm deepfake của các nhà lãnh đạo thế giới và những người nổi tiếng tốt hơn các mô hình AI.
Nghiên cứu cũng tiết lộ rằng các mô hình AI đã gặp khó khăn với những cảnh quay có nhiều người, mặc dù nó cho thấy điều này có thể là do các thuật toán được đào tạo về những cảnh quay có một người nói.
Ngược lại, nghiên cứu tương tự cho thấy các mô hình AI hoạt động tốt hơn con người với những cảnh quay chất lượng thấp (mờ, tối, v.v...) có thể được cố ý sử dụng để đánh lừa người xem.
Tương tự như vậy, các phương pháp phát hiện AI gần đây như theo dõi lưu lượng máu ở các vùng cụ thể trên khuôn mặt kết hợp khả năng phân tích mà con người không thể thực hiện được.
Khi nhiều phương pháp được phát triển hơn, không chỉ khả năng phát hiện các dấu hiệu của AI mà con người không thể cải thiện được nâng cấp mà khả năng đánh lừa của deepfake cũng vậy. Câu hỏi lớn là liệu công nghệ phát hiện deepfake có vượt qua chính deepfake hay không.