(KTSG) - Cuộc sống của nhiều người đã trở thành ác mộng khi công nghệ deepfake có thể dễ dàng ghép mặt họ vào các video giả mạo nhằm hủy hoại danh dự, nhân phẩm hoặc để thu lợi bất chính. Nếu không có những chế tài kiểm soát chặt chẽ, việc công nghệ này ngày càng phát triển và hoàn thiện càng làm tăng thêm lo ngại bị các nhóm tội phạm lợi dụng.
“Học giả” deepfake
Deepfake là cụm từ kết hợp giữa deep learning (học sâu) và fake (giả). Có người gọi vui đó là “học giả” deepfake. Thực ra, đây là phương thức tạo ra các sản phẩm công nghệ giả dưới dạng âm thanh, hình ảnh, thậm chí là cả video bởi trí tuệ nhân tạo (AI) tinh vi thông qua những dữ liệu gốc.
Công nghệ tiên tiến này sử dụng thuật toán để thay thế các chi tiết trên gương mặt cùng với những chuyển động, giọng nói tự nhiên như thật. Độ chân thực của deepfake phụ thuộc vào khối lượng dữ liệu được sử dụng để “huấn luyện” cho AI. Khi càng có nhiều ảnh gốc, độ chân thực do deepfake tạo ra càng thuyết phục.
Nguyên lý hoạt động của deepfake trải qua hai bước chính: nạp dữ liệu và xử lý dữ liệu bằng thuật toán. Việc thu thập dữ liệu với deepfake là dễ, đặc biệt dữ liệu của những người có tầm ảnh hưởng lại càng dễ hơn, bởi dữ liệu mà những video này cần là biểu cảm gương mặt nạn nhân. Điều này có thể hiểu ảnh của đối tượng A được đưa vào bộ giải mã của đối tượng B.
Tiếp đến, bộ giải mã sẽ tái tạo lại khuôn mặt của B với biểu cảm và chuyển động khuôn mặt của A. Hơn nữa, deepfake còn có thể tạo ra các tập tin âm thanh giả bằng cách sử dụng bản ghi âm thực. Mục đích là huấn luyện máy tính phát ra giọng nói giống hệt nạn nhân để tạo ra các văn bản, âm thanh giả mạo.
Kỹ thuật hoán đổi khuôn mặt từng được sử dụng phổ biến trong ngành công nghiệp điện ảnh từ nhiều năm trước. Tuy nhiên, việc sử dụng CGI (công nghệ mô phỏng hình ảnh bằng máy tính) yêu cầu rất nhiều thời gian nhưng cũng không đạt đến độ hoàn thiện như deepfake.
Ngày nay, nhờ sự đột phá trong công nghệ, chỉnh sửa video không còn là vấn đề, khi mọi thứ được xử lý hoàn toàn bởi thuật toán. Bất kỳ ai có kiến thức học sâu và sử dụng bộ xử lý đồ họa mạnh đều có thể tạo ra những video chân thực đến khó tin. Vì vậy, deepfake đã vượt xa hơn nhiều so với công nghệ trước đây sử dụng trong ngành điện ảnh.
Hiểm họa lạm dụng công nghệ
Trước đây, khi tin giả (fake news) xuất hiện, chúng ta vẫn có thể tìm được giải pháp xử lý. Giờ đây deepfake trở nên tinh vi hơn. Việc phân biệt thật giả như “mò kim đáy bể”. Dù vậy, điều gì cũng có hai mặt. Deepfake là một ứng dụng công nghệ cao, hữu ích là giảm thiểu đáng kể chi phí trong nghiên cứu mô phỏng trong lĩnh vực sản xuất phim ảnh.
Trái lại, sự tiêu cực lại đến từ mục đích con người sử dụng nó. Những kẻ xấu có thể dùng nó để tấn công sự ổn định của một quốc gia hay một con người. Khi deepfake ngày càng được “học sâu” hơn, tới lúc, một người nghiệp dư không am hiểu về kỹ thuật học sâu hay thuật toán cũng có thể tạo ra những sản phẩm chân thật. Điều này rất đáng lo ngại bởi bất cứ ai cũng có thể trở thành nạn nhân của deepfake.
Tự thân deepfake không có lỗi. Lỗi là ở cách con người sử dụng nó vào mục đích không chính đáng. Chúng ta đang đối mặt với cuộc chiến vô hình giữa AI và đạo đức con người. Deepfake đã đặt ra cho xã hội một thách thức không chỉ về công nghệ, mà còn về lòng tin và sự tự bảo vệ.
Năm 2021, một nhóm lừa đảo dùng deepfake để giả là lãnh đạo một doanh nghiệp quen, lừa ngân hàng ở UAE chuyển 35 triệu đô la Mỹ vào tài khoản.
Cùng năm, vụ án khét tiếng, gây chấn động Hàn Quốc là “phòng chat thứ N”, thủ phạm đã sử dụng deepfake để tạo nội dung khiêu dâm của những người nổi tiếng và phát tán chúng trong các phòng trò chuyện nhóm để thu lợi bất chính.
Cuối năm 2022 đầu năm 2023, tại Việt Nam nổi lên các chiêu trò lừa đảo bằng deepfake thông qua các cuộc gọi video giả mạo. Cuộc gọi chỉ diễn ra được vài giây nhưng đủ để nạn nhân thấy được khuôn mặt người thân của mình cùng với cách xưng hô quen thuộc, qua đó, nạn nhân tin tưởng, không chút nghi ngờ nên đã chuyển tiền cho những kẻ lừa đảo.
Tình trạng này xảy ra một cách nghiêm trọng đến mức các cơ quan công an ở các tỉnh đã phải cảnh báo về những thủ đoạn lừa đảo chiếm đoạt tài sản bằng công nghệ deepfake tới người dân.
Công nghệ, cơ chế và luật - vũ khí chống deepfake
Với những sản phẩm công nghệ cao như deepfake, việc đối phó không dễ dàng. Mỗi người cần nâng cao khả năng tự vệ trong thời đại ảo hóa, trước hết là tin thần cảnh giác với những cuộc gọi, liên lạc lạ, hạn chế chia sẻ thông tin cá nhân trên các nền tảng mạng xã hội… Bên cạnh đó, các công cụ nhận diện deepfake như sensity, deeptrace… có thể hữu ích trong việc đảm bảo tính xác thực của các nội dung nhận được. Hơn hết, mỗi người nên thường xuyên cập nhật kiến thức về deepfake để phòng các trường hợp xấu xảy ra.
Dưới góc độ pháp luật, hiện nay, các hành vi liên quan đến việc tạo ra và sử dụng hình ảnh, băng đĩa… để phạm tội, hoặc sử dụng phương tiện điện tử đưa thông tin sai sự thật đối với tổ chức, cá nhân thì có thể bị xử lý hình sự. Luật An ninh mạng cũng quy định về trách nhiệm của cá nhân, tổ chức trong việc bảo vệ thông tin, tránh xâm phạm quyền lợi hợp pháp của người khác trên mạng. Do đó, những hành vi trên có thể bị xử lý theo quy định này.
Tuy nhiên, việc xử lý deepfake đòi hỏi chuyên môn cao về công nghệ. Vì vậy, hoàn thiện luật pháp và nâng cao năng lực của các cơ quan chức năng trong việc xử lý các vấn đề về deepfake là rất cần thiết. Các quốc gia trên thế giới đã ý thức được rủi ro tiềm ẩn mà công nghệ deepfake mang lại và có những động thái về chính sách nhằm ứng phó và ngăn chặn. Năm 2020, Hàn Quốc đã thông qua luật hình sự hóa việc phát tán deepfake gây hại cho các cá nhân, chẳng hạn như nội dung khiêu dâm trả thù hoặc bắt nạt trên mạng.
Năm 2021, Úc đã đưa ra Dự luật sửa đổi Bộ luật Hình sự (chống tội phạm doanh nghiệp) bao gồm các điều khoản hình sự hóa việc sử dụng deepfake để lừa đảo hoặc gây hiểu nhầm. Các nước đang chặt chẽ hơn trong việc lập pháp để bảo vệ người dân khỏi những ảnh hưởng nghiêm trọng từ việc phát triển của công nghệ.
Tại Việt Nam, Chính phủ vừa ban hành Nghị định 13/2023/NĐ-CP về bảo vệ dữ liệu cá nhân, nhằm bảo vệ người dân trong quá trình chuyển đổi số, nhưng vẫn chưa có quy định cụ thể rõ ràng liên quan đến vấn đề nan giải như deepfake.
Việt Nam cần có sự thay đổi trong hành lang pháp lý để quản lý các thông tin tạo ra bởi deepfake, trong đó, cần có các điều khoản pháp luật nghiêm cấm một số nội dung deepfake nhất định, ngăn chặn và trừng trị các cá nhân, cơ quan và tổ chức tạo ra và phát tán chúng.
Tự thân deepfake không có lỗi. Lỗi là ở cách con người sử dụng nó vào mục đích không chính đáng. Chúng ta đang đối mặt với cuộc chiến vô hình giữa AI và đạo đức con người. Deepfake đã đặt ra cho xã hội một thách thức không chỉ về công nghệ, mà còn về lòng tin và sự tự bảo vệ.