Deepfake - công nghệ khởi đầu cho những video khiêu dâm, dung tục giả mạo

Deepfake nghe có vẻ là một từ ngữ xa lạ mang đầy tính ám ảnh nhưng thực chất đó lại là một trào lưu mà bạn có thể gặp sản phẩm của nó hàng ngày.

Deepfake là gì?

Nói một cách đơn giản nhất, deepfake là một công nghệ sản xuất, chỉnh sửa ảnh hoặc video dựa trên trí tuệ nhân tạo (AI) với các nội dung không xảy ra trong thực tế. Nó chủ yếu tập trung sản phẩm vào việc ghép mặt những nhân vật nổi tiếng vào một sản phẩm nào đó và thường vì mục đích xấu. Để dễ hình dung hơn, bạn có thể hiểu đây là một kỹ thuật tổng hợp hình ảnh con người dựa vào AI. Trong đó, nó kết hợp và chồng các hình ảnh hoặc video của người nổi tiếng lên các hình ảnh hoặc video nguồn bằng cách sử dụng trí tuệ nhân tạo.

Việc chỉnh sửa ảnh hay video đã có từ cách đây khá lâu nhưng trào lưu ứng dụng AI vào các công đoạn thì đến gần đây mới xuất hiện. Từ deepfake được coi là xuất hiện vào tháng 12/2017 khi một người dùng có tên ‘deepfakes' công bố một đoạn video với rất nhiều cảnh nóng trên diễn đàn Reddit. Người này sử dụng trí tuệ nhân tạo để ghép mặt nữ diễn viên Scarlett Johansson hoặc Gal Gadot vào các đoạn phim khiêu dâm. Trước đó, vào tháng 7/2017, một nhóm nghiên cứu của đại học Washington cũng đã rất nổi tiếng khi cho ra một video ghép mặt cựu tổng thống Mỹ Obama với giọng đọc của người khác. Trong video này, từng cử chỉ của miệng ông Obama khớp đến kỳ lạ với giọng đọc.

Đương nhiên những video hay hình ảnh được tạo ra bởi deepfake không có thật và được tạo ra bằng AI. Tuy vậy, thời gian trôi qua, những sản phẩm công nghệ này ngày càng giống thật, được sửa các lỗi nhỏ khiến việc phân biệt thật giả là rất khó khăn.

Đến hiện tại, deepfake là trở thành một thuật ngữ rất phổ biến dù chưa có định nghĩa chính xác. Các nhà khoa học máy tính cho rằng nó mới chỉ dừng lại ở những trò chơi khăm hoặc phục vụ mục đích giải trí, hài hước. Tuy nhiên đằng sau đó có thể là những mục đích chính trị. Những video làm giả của deepfake sẽ trở thành một mối đe dọa lớn với xã hội, khi công nghệ phát triển hơn, các lỗi cơ bản dần được sửa thì gần như sẽ không thể phân biệt ảnh hoặc video thật giả nếu dùng công cụ này.

Nạn nhân của Deepfake là ai?

Nạn nhân của deepfake thường là những ngôi sao giải trí hoặc người nổi tiếng trong xã hội. Tuy nhiên, càng ngày, ứng dụng này lại càng được chỉnh sửa với nhiều biến thể khác nhau và nạn nhân của nó cũng đa dạng hơn rất nhiều. Thực tế hiện nay, một chiếc máy tính với card đồ họa bình thường cũng có thể thực hiện được những video hay hình ảnh giả mạo một cách dễ dàng. Cách làm và công cụ có sẵn trên mạng, người dùng deepfake chỉ cần sử dụng những hình ảnh hay video có sẵn cùng một vài thuật toán để tạo ra sản phẩm.

Scarlett Johansson có lẽ là một trong những người ghét deepfake nhất trên thế giới khi cô thường xuyên là chủ đề trong những đoạn phim khiêu dâm làm giả tràn lan trên mạng. Không chỉ vậy, nữ diễn viên này còn từng bị hacker lấy trộm ảnh trong điện thoại hay dùng mặt cô ghép vào một con robot. Quá chán nản với điều này, Scarlett Johansson cho rằng internet là hoàn toàn không có luật lệ và việc cố xóa sạch video người lớn giả mạo là điều không thể. Cô cũng cho biết sẽ không cố gắng loại bỏ bất kỳ một bộ phim nào làm giả hình ảnh của mình bởi nó không ảnh hưởng đến hình ảnh công khai của bản thân.
Hình ảnh khiêu dâm được chỉnh sửa từ deepfake trông rất giống một ngôi sao người Hàn Quốc
Deepfake không chỉ có thể làm giả hình ảnh của Scarlett Johansson mà còn gây nên những sự phiền toái với một loạt các sao nữ khác như Emma Watson, Katy Perry, Tayor Swift… Nhưng họ là ngôi sao, lời giải thích sẽ được nhiều người nghe và thông cảm. Với sự phát triển của mình, deepfake còn đang hướng tới cả những người bình thường.

Tháng 4/2018, một nhà báo người Ấn Độ có tên Rana Ayyub bị ghép mặt mình vào cơ thể một người phụ nữ khác trong video khiêu dâm trên internet. Khi cô phát hiện ra, video này đã lan truyền một cách chóng mặt trên các mạng xã hội và không thể kiểm soát nổi.

Khi xem đoạn video này, Rana Ayyub đã buồn nôn, sau đó là khóc nhiều ngày rồi nhập viện vì quá hoảng loạn. Đến khi vào đồn cảnh sát để trình báo sự việc, Rana còn thất vọng hơn khi thấy những người tại đây đang xem video giả mạo cô.

Deepfake đang ngày càng tràn lan trên thế giới bởi nó dễ sử dụng và sản phẩm thì rất giống thật. Giờ đây, chỉ cần một máy tính đủ mạnh và phần mềm tạo video deepfake, bất kỳ ai cũng có thể bị giả mạo. Nạn nhân của nó cũng bất lực trong việc tìm ra thủ phạm. Họ hoang mang cực độ, suy sụp tinh thần và cũng chẳng có ai ở bên để bảo vệ họ.

Tháng 6/2019, một biến thể của deepfake có tên Deepnude được phát hành trên mạng. Nó có sẵn và cho phép tải xuống miễn phí trên hệ điều hành Windows. Ứng dụng này cho phép dễ dàng tạo ra hình ảnh khỏa thân của phụ nữ chỉ bằng một cú nhấp chuột. Người dùng chỉ cần chọn hình ảnh mình thích, bỏ vào ứng dụng. Phần còn lại, hệ thống của Deepnude sẽ xử lý, lột bỏ quần áo của phụ nữ và cho ra sản phẩm là một hình ảnh khỏa thân.
Deepnude là một biến thể rất nguy hiểm của deepfake
Sự ra đời của Deepnude cho thấy trào lưu làm giả hình ảnh hay video ngày càng phổ biến và nguy hiểm đến mức nào. Kẻ xấu hoàn toàn có thể lợi dụng ứng dụng này nhằm tạo ra hình ảnh giả mạo của ai đó rồi tung ra tin đồn sai lệch nhằm hạ uy tín và khiến nạn nhân suy sụp.

Khó khăn khi chống lại deepfake

Chống lại deepfake là điều không hề đơn giản. Các diễn đàn hiện nay cho phép ẩn danh nên tìm ra thủ phạm làm giả hình ảnh, video là không dễ dàng. Rất nhiều diễn đàn, trang web (kể cả các web người lớn) đã cấm video, hình ảnh được làm từ deepfake nhưng vẫn không thể chống lại sự phát triển và phổ biến của nó.

Nạn nhân của deepfake cũng không có cách nào tìm ra thủ phạm đã làm giả video hay hình ảnh của mình bởi chẳng ai biết kẻ tấn công. Và nếu có tìm ra được kẻ tấn công thì sản phẩm hắn làm ra cũng đã lan truyền, phát tán tràn lan trên internet.

Vào tháng 8/2018, các nhà nghiên cứu của Trung tâm nghiên cứu thuộc Bộ Quốc phòng Mỹ đã giới thiệu 1 công cụ cho phép nhận diện video là sản phẩm của deepfake. Tuy nhiên, công cụ này được chính những nhà phát triển cho rằng phải liên tục phát triển vì deepfake phát triển quá nhanh và ngày càng tinh vi.

Trong tương lai không xa, deepfake có thể sẽ không chỉ đánh gục một cá nhân hay tổ chức nhỏ nào mà thậm chí ảnh hưởng đến doanh nghiệp lớn, tạo ra biến động sâu sắc. Thậm chí, nó cũng có thể gây nên những kích động quân sự hay ảnh hưởng đến chính trị.

Hãy tưởng tượng một ngày nào đó xuất hiện video deepfake CEO của Apple là Tim Cook cho rằng công ty này sẽ khai tử iPhone. Ngay sau đó là hệ lụy khôn lường khi cổ phiếu của hãng công nghệ này rớt giá thê thảm và ảnh hưởng đến cả thị trường tài chính. Khi mọi người nhận ra rằng đó là sản phẩm của deepfake thì mọi thứ đã muộn.

Jeffrey McGregor – CEO của một startup công nghệ nhận định rằng trong 12 tháng tới, chúng ta sẽ chứng kiến các hình ảnh, video không thể phân biệt được thật giả. Xã hội bắt đầu không tin tưởng mọi thứ họ thấy.

Cách đây không lâu, Ủy ban đặc biệt về tình báo của Thượng viện Mỹ đã tổ chức một phiên điều trần tập trung về việc làm sao để chống lại deepfake. Họ cho rằng các mạng xã hội, diễn đàn và website phải tự chịu trách nhiệm trước nội dung giả mạo, gây hại được lan truyền trên mạng. Đồng thời, khi xuất hiện video một video không thể xác minh thật giả thì phải gắn nhãn cảnh báo.

Theo T.T
VnReview
0 Nhận xét