Thứ Bảy, 20/04/2024
32 C
Ho Chi Minh City

Lừa đảo deepfake gia tăng cùng với sự trỗi dậy của AI

Khánh Lan

Kinh tế Sài Gòn Online

Kinh tế Sài Gòn Online

(KTSG Online) – Mới đây, một người đàn ông ở Trung Quốc bị lừa chuyển tiền hơn 600.000 đô la Mỹ sau khi kẻ lừa đảo sử dụng công nghệ trí tuệ nhân tạo (AI) để giả mạo hình ảnh và giọng nói của người bạn trong một cuộc gọi video.

Những vụ lừa đảo bằng deepfake, tức sử dụng những giọng nói, hình ảnh, video giả mạo dựa vào AI, đang tăng lên trên khắp thế giới. Thực tế này làm thổi bùng mối lo ngại rằng nếu không kiểm soát chặt chẽ thì sự trỗi dậy của công nghệ AI sẽ tiếp tay cho bọn tội phạm tài chính.

Các vụ lừa đảo deepfake qua các cuộc gọi điện gia tăng trong những năm gần đây. Ảnh: Getty

Giới chức trách Trung Quốc đang tăng cường đã giám sát các công nghệ và ứng dụng cho phép tạo ra deepfake trong bối cảnh lừa đảo dựa vào công nghệ AI gia tăng, chủ yếu liên quan đến việc thao túng dữ liệu giọng nói và khuôn mặt.

Hồi tháng 1, Trung Quốc ban hành các quy định cấm các nhà dịch vụ Al và người dùng sử dụng deepfake để tung các thông tin sai lệch trong bối cảnh cơn sốt AI tạo sinh lan đến nước này sau khi startup OpenAI ra mắt công cụ chatbot AI ChatGPT hồi cuối năm ngoái.

Tháng trước, cảnh sát ở thành phố Bao Đầu thuộc khu vực Nội Mông của Trung Quốc cho biết, một kẻ lừa đảo đã sử dụng công nghệ hoán đổi khuôn mặt do AI cung cấp để đóng giả một người bạn của nạn nhân trong một cuộc gọi video để lừa anh này khoản chuyển khoản 4,3 triệu nhân dân tệ (622.000 đô la Mỹ). Kẻ lừa đảo không chỉ giả dạng khuôn mặt mà còn giả luôn cả giọng nói của người bạn nạn nhân.

Theo cảnh sát, nạn nhân họ Guo, đại diện pháp lý của một công ty công nghệ đã chuyển tiền vì tin rằng người bạn cần tiền đặt cọc trong một cuộc đấu thầu. Người đàn ông chỉ nhận ra mình bị lừa sau khi người bạn cho biết không hề gọi điện để nhờ chuyển tiền.

“Anh ta trò chuyện với tôi qua cuộc gọi video và tôi cũng thấy đúng là khuôn mặt và giọng nói của bạn tôi trong trong video. Đó là lý do tại sao tôi mất cảnh giác”, Guo nói.

Với sự hợp tác của ngân hàng, cảnh sát đã ngăn chặn việc chuyển 3,37 triệu nhân dân tệ và đang tìm cách thu hồi 931.600 nhân dân tệ đã được gửi.

Cảnh sát thành phố Bao Đầu kêu gọi công chúng cẩn thận khi chia sẻ thông tin như hình ảnh khuôn mặt và dấu vân tay. Cảnh sát cũng khuyên mọi người xác minh danh tính của người gọi điện thoại video thông qua các hình thức khác trước khi thực hiện bất kỳ giao dịch tài chính nào.

Vụ việc trên đã dẫn đến các thảo luận sôi nổi  trên trang mạng xã hội Weibo của Trung Quốc về mối đe dọa của AI đối với quyền riêng tư và an ninh trực tuyến, với hashtag  # Trò lừa đảo AI đang bùng nổ trên toàn quốc#  thu được hơn 120 triệu lượt xem tính đến hôm 22-5.

“Vụ việc cho thấy, bọn lừa đảo có thể giả mạo tất cả hình ảnh, giọng nói và video liên quan đến bạn. Liệu các định về bảo vệ an nình thông tin có thể theo kịp các kỹ thuật của bọn người này không?”, một người dùng trên Weiboi bày tỏ lo lắng.

Các vụ lừa đảo deepfake tương tự gia tăng mạnh mẽ trên toàn thế giới trong những năm gần đây, với những kẻ lừa đảo sử dụng công nghệ AI để tái tạo giọng nói, hình ảnh của người thân hoặc bạn bè của nạn nhân để mượn tiền qua cuộc gọi điện thoại.

Tại Anh, CEO của một công ty năng lượng đã chuyển 220.000 euro vào tài khoản ngân hàng của một nhà cung cấp ở Hungary sau khi nhận được một cuộc điện thoại từ sếp của công tỵ mẹ có trụ sở tại Đức. Nhưng hóa ra, kẻ lừa đảo đã sử dụng công nghệ giọng nói AI để nhái lại giọng nói của vị sếp để lừa nạn nhân chuyển tiền.

Năm ngoái, Elizabeth Bako, một phụ nữ ở Ontario (Canada) bị lừa 750.000 đô la Canada sau khi kẻ lừa đảo giả mạo video của tỉ phú Elon Musk kêu gọi đầu tư mua cổ phiếu của hãng xe điện Tesla với giá ưu đãi thông qua một website.

Trong cuộc trò chuyện với CTV News hôm 20-5, Neil Sahota, cố vấn AI của Liên hợp quốc cảnh báo mọi người cần phải cảnh giác khi công nghệ AI ngày càng cải thiện, cho phép tạo ra các deepfake “chân thực” hơn.

“Deepfake giống như bản sao kỹ thuật số. Nghĩa là người khác có thể tạo một bản sao kỹ thuật số của bạn dù chưa có sự cho phép của bạn và thường nhằm mục đích xấu, chẳng hạn như lừa đảo tiền bạc”, ông nói.

Sahota kêu gọi các nhà hoạch định chính sách cần làm nhiều hơn nữa để giáo dục công chúng về sự nguy hiểm của deepfake và cách phát hiện chúng. Ông cũng gợi ý, nên xây dựng một hệ thống xác minh nội dung sử dụng mã thông báo kỹ thuật số để xác thực hình ảnh và video nhằm loại bỏ deepfake.

Theo dữ liệu của PitchBook, năm ngoái, các quỹ mạo hiểm đã đầu tư 187,7 triệu đô la vào các startup phát triển công nghệ deepfake từ mức chỉ 1 triệu đô la vào năm 2027. Trong những tháng đầu năm nay, các quỹ mạo hiểm tiếp tục rót 50 triệu đô la cho các startup này.

Theo Reuters, CTV News

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Tin liên quan

Có thể bạn quan tâm

Tin mới