Công nghệ Deepfake khiến FBI lo sợ

Công nghệ Deepfake khiến FBI lo sợ


Một số quan chức tại Cục Điều tra liên bang Mỹ FBI từng thừa nhận không có khả năng phát hiện hình ảnh bị can thiệp bởi deepfake.


Thông tin xuất phát từ loạt email nội bộ của FBI được Motherboard thu thập và công bố tuần trước. Khi deepfake rộ lên năm 2018, đặc biệt là tình trạng ghép mặt người này vào hình ảnh cơ thể người khác, FBI lo ngại công nghệ sẽ bị lợi dụng, gây ảnh hưởng đến việc giám sát, điều tra tội phạm.

"Chúng ta có thể phát hiện điều này một cách hiệu quả không?", một chuyên viên tại phòng công nghệ của FBI gửi email vào tháng 7/2018, đính kèm bài viết của Washington Post về nguy cơ khủng hoảng tin giả do deepfake.

"Không", một người khác đáp lại.

Deepfake là sự kết hợp giữa "deep learning" (học sâu) và "fake" (giả). Công nghệ này sử dụng AI phân tích cử chỉ, nét mặt và giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh hoặc video trông như thật về người đó, thậm chí bao gồm cả hình ảnh và tiếng nói.

 

 

Trong một số email, các chuyên viên cũng đề cập các sản phẩm cụ thể, nhưng không được tiết lộ, và cảnh báo một số trường hợp khẩn cấp có thể ảnh hưởng mạnh đến công việc của FBI. Ngoài ra, email cũng cho thấy các đặc vụ tại đây đã tìm hiểu và học được nhiều điều từ các tính năng hoán đổi khuôn mặt. Khi đó, nhiều sản phẩm deepfake ghép mặt được cung cấp dưới dạng ứng dụng smartphone để bất kỳ người dùng nào cũng có thể sử dụng.

"Trong khi mọi người đang thực hiện điều này cho những mục đích tầm thường thì những công cụ tốt hơn có thể đang được áp dụng cho những video giám sát hoặc nhận dạng khuôn mặt", một email vào tháng 1/2018 viết, thể hiện sự lo ngại của FBI với công nghệ mới.

 

 

Sau 5 năm, các giải pháp phát hiện deepfake đã có nhiều bước phát triển vượt bậc. Intel mới đây công bố giải pháp có khả năng phát hiện deepfake với độ chính xác 96%. Tuy nhiên theo Vice, tương tự những công bố từ các bên khác, con số hiệu quả trong lĩnh vực này "rất khó xác minh".

FBI chưa đưa ra bình luận về thông tin trên. Tháng trước, Cục Điều tra liên bang Mỹ cũng cảnh báo về nạn tống tiền bằng nội dung khiêu dâm được thực hiện bởi deepfake.

 

 

"Những kẻ ác ý khai thác ảnh và video, thường là từ tài khoản mạng xã hội của cá nhân, sau đó sử dụng công nghệ thay đổi nội dung, biến chúng thành những chủ đề tình dục liên quan đến nạn nhân", FBI viết. Nội dung sau đó được gửi cho nạn nhân để tống tiền, quấy rối, hoặc phát tán trên mạng xã hội, diễn đàn, trang web khiêu dâm. "Nạn nhân sẽ gặp thách thức đáng kể trong việc ngăn chặn hoặc xóa chúng khỏi Internet", tổ chức này cho hay.