IDOL nữ K-POP khốn đốn khi bị ứng dụng DeepFake thay thế mặt thành những diễn viên phim Porn

Quang BD

Vậy “Deepfake” là gì? Đó là một thủ thuật cực kỳ tinh vi có khả năng quét video và ảnh chân dung của một người. Sau đó, dữ liệu sẽ hợp nhất với video riêng biệt nhờ công nghệ trí tuệ nhân tạo (AI) và thay thế chi tiết trên gương mặt như mắt, miệng...

Nói tóm lại, “Deepfake” có thể gán khuôn mặt của một người này sang cho một người khác trong video với độ chân thực gần như tuyệt đối. Mới xuất hiện được hơn 1 năm nhưng “Deepfake” đã khiến các chuyên gia phải lên tiếng cảnh báo con người không nên lạm dụng công nghệ này.

Bất chấp lời nhắc nhở đó, “Deepfake” vẫn được đưa vào sử dụng với mục đích bất chính. Rơi vào tay những kẻ xấu, “Deepfake” đã trở thành công cụ giả mạo người nổi tiếng để cho ra đời những bộ phim nóng. Những nữ diễn viên khiêu dâm được áp dụng công nghệ này có thể hóa thân thành hàng loạt idol nữ K-Pop để đóng phim nóng.

Những video này được đăng tải lên các web phim người lớn với dòng tít bao gồm cả tên của nghệ sĩ đó, thu về hàng triệu lượt xem và lợi nhuận khủng. Hàng loạt nạn nhân tiêu biểu như Red Velvet, TWICE, SNSD, IU, AOA, Suzy, Chungha, GFRIEND, Apink, Girl’s Day, Hani, BLACKPINK, Weki Meki Doyeon, PRISTIN Kyulkyung, MAMAMOO, Oh My Girl..v.v.

Nhiều người xem thiếu hiểu biết sẽ vô tư tin rằng idol K-Pop đã “chuyển nghề”. Idol nam cũng bị “Deepfake” tấn công nhưng số lượng ít hơn.

Trong những năm tới, “Deepfake” có thể phát triển mạnh hơn nữa, rất khó để nhận ra đâu là video thật và đâu là giả mạo. Đây là hình thức quấy rối tình dục bằng công nghệ rất tinh vi mà pháp luật chưa thể kiểm soát được.

Công nghệ Deepfake hiện nay có thể chỉ dừng lại những trò chơi khăm hay phục vụ cho mục đích giải trí, nhưng nó cũng có thể bị lợi dụng để phục vụ cho những mục đích chính trị xấu xa.

Tại sao vậy? Theo một số nhà khoa học máy tính, những video Deepfake có nội dung người lớn sẽ tạo ra một mối đe dọa lớn đối với xã hội. Khi công nghệ phát triển hơn vào những năm tới, khó có thể phân biệt đâu là video có nội dung giả mạo.

Chuyên gia công nghệ Trung tâm Trách nhiệm Truyền thông Xã hội của Đại học Michigan chia sẻ mối quan ngại: “Tôi lo rằng vấn đề nghiêm trọng là sự suy giảm lòng tin vào tin tức vì công nghệ Deepfake đang ngày càng dễ dàng hơn để tiếp cận và có thể gây ra những vụ bê bối tình dục, tội ác, tham nhũng...”.

Mặc dù nhận thức về hiểm họa của Deepfake, nhưng những video giả mạo vẫn được phát tán trên nhiều ngõ ngách của mạng Internet. Cuối năm ngoái, trang Motherboard đã cảnh báo vấn đề luật pháp không thể phát triển nhanh để theo kịp công nghệ. Những hiệu ứng hoán đổi khuôn mặt trước đây chỉ nằm trong tay các chuyên gia phim ảnh thì nay lại thực hiện được ngay trên máy tính cá nhân. Bất kỳ ai cũng có thể biến bức ảnh, bản ghi âm, video thành những đoạn phim giả mạo như công cụ để truyền bá những thông tin sai lệch.

Điều gì sẽ xảy ra nếu đoạn phim về một vị Tổng thống trên giường với gái mại dâm hay chính trị gia đưa ra phát ngôn mang tính phân biệt chủng tộc?

 Video: Một nhóm các nhà khoa học máy tính tại Đức nghiên cứu về công nghệ deepfake có thể tạo ra những video như thật về ông Putin và ông Trump. Nguồn: Quatz

Giám đốc truyền thông của công ty nghiên cứu về trí tuệ nhân tạo phi lợi nhuận OpenAI nhận định: “Bạn sẽ gặp rắc rối khi tin tưởng vào điện thoại và các đoạn video. Đây rõ ràng là vấn đề chưa có lời giải”.

Peter Eckersley, chuyên gia khoa học máy tính của tổ chức Electronic Frontier Foundation (EFF), tác giả của tài liệu mang tên “Làn sóng video giả mạo sẽ được sử dụng cho mục đích chính trị và cách để bảo vệ nền dân chủ trước những rủi ro” đã giải thích thuật ngữ “Deepfake” là sự kết hợp giữ “deep learning” và “fake” đã được sử dụng rộng rãi sau khi một thành viên vô danh trên diễn đàn mở Reddit tạo nên chương trình Deepfakesapp giúp hoán đổi gương mặt vào video gốc. Sau đó, một thành viên khác của Reddit đã phát hành phiên bản cải tiến gọi là FakeApp.

Bức ảnh một buổi tập trận của Triều Tiên được cho là có sự can thiệp bằng Photoshop. Nguồn: Popsci

Đó là sự tiến hóa của công nghệ như cách Adobe Photoshop xuất hiện cách đây 30 năm. Ban đầu, deepfake chỉ là trò đùa vui nhộn trên mạng Internet với hàng loạt ảnh chế, ghép gương mặt Nicolas Cage vào nữ nhân vật Luis Lane trong bộ phim Superman. Tiếp theo, các trang khiêu dâm bắt đầu dày đặc đoạn phim nội dung người lớn với gương mặt của Gal Gadot, Emma Watson hay Taylor Swift.

Với ưu điểm phát triển trên nền tảng mã nguồn mở và dễ tiếp cận, Deepfake dần trở nên phổ biến hơn và gây náo động trên Reddit, Twitter và các trang như Pornhub, Discord, Gfycat để cấm các nội dung ứng dụng công nghệ Deepfake.

Quy định dù được đặt ra nhưng không thể ngăn sự phát triển và lan truyền của công nghệ Deepfake. Chương trình FakeApp cho phép tải về dễ dàng, trong khi website có tên Deepfake Society thu hút hơn 1 triệu lượt truy cập kể từ đầu tháng 2 (Deepfake Society có quy định cấm các video giả mạo có nội dung khiêu dâm và liên quan tới chính trị).


Video: Đoạn phim về cựu Tổng thống Mỹ, Barrack Obama tạo nên bởi công nghệ Deepfake giống thật đến đáng sợ. Nguồn: Business Insider

Đại diện giấu tên của Deepfake Society tại Los Angeles nói rằng ông lập nên website bởi vì nhận ra giá trị thuần giải trí của công nghệ Deepfake. Tuy nhiên, ông cũng nhận ra bộ mặt “vô cùng đáng sợ”:

“Bạn có thể đưa bất kỳ nhà chính trị nào làm bất cứ điều gì ở mọi nơi. Kể cả khi video đó là giả mạo nhưng khi xuất bản nó sẽ hủy hoại ai đó. Hầu hết người truy cập không quan tâm cảnh báo của tôi, họ muốn tự nghiên cứu. Họ chỉ coi nó như một khía cạnh đáng lưu ý”.

Chuyên gia khoa học máy tính tại trường đại học KU Leuven(Bỉ), Sven Charleer cho rằng các chuyên gia đã phản ứng thái quá trước công nghệ Deepfake, nó cũng có thể được sử dụng cho mục đích tốt. Để chứng minh, ông Charleer chia sẻ từng sử dụng Deepfake để hoán đổi gương mặt vợ của ông vào diễn viên Anne Hathaway trong bộ phim hài Get Smart và đăng tải nó trên blog cá nhân.

Ông Charleer nói: “Chúng ta sẽ thấy một số điều tuyệt với từ công nghệ này. Mọi người chỉ cần tin tưởng nó hơn và bớt đưa ra những chỉ trích”.

Chuyên viên kỹ thuật tại Thung lũng Silicon Andrew Keen, tác giả của cuốn sách “Làm thế nào để khắc phục tương lai” đã bày tỏ mối hoài nghi về công nghệ Deepfake, đồng thời các chính phủ cần đưa ra quy định mới để quản lý công nghệ này.

Ông Keen nói: “Đây là một hình thức đánh cắp danh tính”. Ông nêu ra nghi vấn: “Tôi có quyền kiện ai nếu họ sử dụng hình ảnh của tôi và ghép vào một ngôi sao phim người lớn hay một con chó?”

Luật sư David Greena của công ty EFF nói rằng “không có gì là bất hợp pháp” về công nghệ Deepfake. Các đạo luật hiện hành đã giới hạn việc “tạo ra các nội dung khiêu dâm trái phép và các sự kiện sai lệch” nhưng nên đặt ra những quy định mới chống lại mục đích “sử dụng có lợi và lành mạnh” như giả mạo những tuyên bố chính trị.

Theo luật sư công nghệ và truyền thông của công ty Loeb & Loeb LP, Melaine Howard cho biết cải cách pháp luật là không đủ và khuyến cáo các công ty công nghệ đưa ra “biện pháp đối phó với các nội dung giả mạo theo phương thức này”.

Tuy nhiên, ông Eckersley của EFF lại cho rằng những “giải pháp công nghệ” chỉ là “giấc mơ viển vông”. Ví dụ không thể yêu cầu các công ty sản xuất thiết bị ghi hình và smartphone cung cấp thông tin về thời điểm và thời gian mà video được ghi lại.

Ông Eckersley nói: ”Không có một lối tắt diệu kỳ cho việc kiểm tra liệu video và âm thanh có phải là thật không”. Ông nói thêm: “Nếu sự cố thực sự xảy ra thì thật khó để phân biệt sự khác nhau giữa những sự thật, những điều đen tối phía sau và vùng xám của công nghệ Deepfake”.

Bài cùng chuyên mục