Dễ dàng gắn mặt người vào video khiêu dâm
Deepfake khởi phát từ khoảng đầu năm 2017 nhưng phải tới cuối năm này nó mới khiến người ta lo lắng khi một tài khoản trên diễn đàn Reddit với nick “deepfakes” công bố một loạt video khiêu dâm trong đó ghép mặt của các diễn viên Mỹ nổi tiếng như Scarlett Johansson, Gal Gadot… vào nhân vật trong video.
Trước đó vài tháng, một nhóm nghiên cứu thuộc Đại học Washington công bố một clip ghép mặt của cựu Tổng thống Mỹ Barack Obama trong khi giọng nói thì của một người khác.
Từ những thời điểm trên, deepfake ghép mặt người vào các video khiêu dâm trở thành nỗi lo lắng, ám ảnh với các sao Hollywood. Thậm chí còn hơn thế nữa. Những người bình thường đặc biệt là nữ giới, nếu bị chơi xỏ hoặc bị kẻ xấu tấn công âm thầm ghép mặt của họ vào các clip khiêu dâm, thì họ cũng bị rơi vào khủng hoảng “lộ clip sex” có khi đi đến bế tắc.
Trên thực tế trong suốt hai năm qua đã có không ít trường hợp nữ giới cũng như nam giới bị trêu đùa, chơi xỏ hoặc tấn công bằng video deepfake khiến họ mang tiếng. Thế nhưng, họ lại rất khó “gột rửa” được “vết nhơ” vì thủ phạm thì lặn sâu trong khi “clip sex” thì sờ sờ được phát tán ở mức độ khủng khiếp trên mạng không thể ngăn chặn được.
Có nghĩa là, các nạn nhân đặc biệt là nữ, bị rơi vào nghi án “lộ clip sex” nhưng rất khó được giải oan vì không bắt được thủ phạm thì cũng khó có thể khẳng định rằng đó là clip giả dù nó đúng là được làm giả bằng thuật toán trí tuệ nhân tạo ngày nay được cung cấp miễn phí hoặc tạo video deepfake có thu phí khá rẻ trên mạng Internet.
Đặt trường hợp nếu các nạn nhân bị video deepfake tấn công nếu có thể làm rõ được thì cũng cần đến các tổ chức, cơ quan có đủ các công cụ công nghệ cao và thẩm quyền để lần tìm, phát hiện nhằm chứng minh được đó là clip giả thì mới có thể giải oan cho những người bị ghép gương mặt trong các video đó.
Nguy cơ nghiêm trọng từ deepfake
Trong thời gian qua, rải rác có những vụ dùng video deepfake tấn công ở trên thế giới nhưng chưa tới mức cao trào. Theo chuyên gia bảo mật Nguyễn Minh Đức – Giám đốc Công ty an ninh mạng CyRadar, sự tiến triển của công nghệ deepfake trên thế giới có thể ghép mặt người chạy trơn tru trong các đoạn clip ngắn nhưng để công nghệ này hoàn thiện thì sẽ cần thêm một thời gian nữa.
Tuy nhiên ông Đức cảnh báo, nếu deepfake đạt tới mức độ hoàn thiện cao thì nguy cơ từ nó cũng sẽ rất nghiêm trọng. Thứ nhất nó có thể bị kẻ xấu hay những người có ý đồ trục lợi sử dụng vào mục đích chính trị. Điều này lí giải vì sao Facebook đã cuống cuồng dùng công nghệ AI để phân biệt các video deepfake để loại trừ khỏi nền tảng mạng xã hội này, đồng thời phát động cuộc thi phát hiện deepfake có tổng trị giá giải thưởng 10 triệu USD.
Còn với các cá nhân đặc biệt là những người trong giới showbiz, người nổi tiếng.v.v…, video deepfake có thể khiến họ thân bại danh liệt, khủng hoảng, bế tắc và có thể dẫn đến hậu quả khôn lường.
Theo quan sát của ông Đức, thời gian qua tại Việt Nam chưa có trường hợp nào bị tấn công bởi video deepfake được công bố, song cũng không thể nói trước được trong tương lai sẽ như thế nào.
Các mạng xã hội lớn như Facebook, Google, Reddit.v.v… buộc phải nghiên cứu tìm ra giải pháp để phân biệt và ngăn chặn video deepfake trên nền tảng của mình. “Đó là tiến trình cần phải có. Tuy nhiên về mặt công nghệ hiện nay cũng rất khó lọc được tuyệt đối các video deepfake trên các nền tảng online”, ông Đức nói.