(KTSG) - Chỉ hơn một năm từ khi làn sóng công nghệ trí tuệ nhân tạo (AI) xuất hiện với mô hình tiên phong ChatGPT của Công ty OpenAI, các mô hình AI xuất hiện ngày càng nhiều. Bên cạnh những ứng dụng mang lại lợi ích lớn lao cho nhân loại, một nỗi lo ngại khác cũng đang hiện rõ hơn: AI tạo ra những nội dung “phi đạo đức” từ những mô hình ngôn ngữ không bị kiểm duyệt.
- Cuộc chiến tác quyền với GenAI: Chọn đọc ChatGPT hay đọc báo?
- EU đạt được thỏa thuận quản lý ChatGPT và các công cụ AI khác
Với bản chất là có khả năng tạo sinh (generative) cực mạnh, AI có thể tạo ra một lượng nội dung khổng lồ cực nhanh. Lúc đầu, người ta chỉ lo ngại về nội dung “rác”, nội dung “râu ông này cắm cằm bà kia” do AI sản xuất ra, thậm chí còn đem những câu trả lời ngớ ngẩn của AI ra để đùa vui. Thế nhưng gần đây, sự lo ngại đang chuyển sang AI dựa trên mô hình ngôn ngữ không được kiểm duyệt (uncensored LLM) vì giờ đây AI có thể tạo ra những nội dung bất chấp chuẩn mực đạo đức.
Nội dung “rác” do AI tạo ra sẽ tràn lan?
Với sự phát triển cực nhanh, hiện nay các công cụ AI không chỉ tạo ra văn bản, hình ảnh, âm thanh hay video đơn giản mà đã có thể dùng để tạo ra truyện tranh, bài hát hay cả bộ phim ngắn.
Nếu có công cụ AI cao cấp loại trả phí và qua tay người thành thạo chuyên môn, các sản phẩm do AI tạo ra đã đạt được mức độ tinh xảo đến mức nhìn sơ qua thì khó phân biệt thật giả.
Đã có nhiều người dẫn chương trình hay phát thanh viên ảo được tạo ra bằng các công cụ AI nhìn sinh động không thua kém người thật. Mới đây, khả năng này lại được nâng cao hơn nữa khi OpenAI đã trình diễn một số đoạn clip được tạo ra từ công cụ AI Sora. Đây được xem là bước nhảy vọt trong lĩnh vực chuyển văn bản thành video bằng công cụ AI với bối cảnh phức tạp nhưng vẫn đảm bảo độ mượt mà, tính logic của đoạn phim.
Một công cụ khác của OpenAI cũng đang khiến nỗi lo ngại bị lạm dụng tăng lên, đó là Voice Engine. Đây là công nghệ nhân bản giọng nói có thể bắt chước bất kỳ giọng người nào bằng cách phân tích giọng mẫu dài 15 giây. Trên mạng Internet đã có một số mẫu thử nghiệm giọng nói tạo ra bằng Voice Engine, nhiều người nghe qua đã phải công nhận khó phân biệt đâu là giọng nói gốc, đâu là giọng nói do AI tạo ra.
Bên cạnh lợi ích do AI mang lại, rõ ràng với khả năng tạo sinh mạnh mẽ từ văn bản đến hình ảnh, âm thanh, video thì trong tương lai gần, các nội dung vàng thau lẫn lộn do AI tạo ra sẽ nhanh chóng tràn lan trên mạng. Điều này sẽ tạo ra một cuộc chạy đua mới trong việc quản lý, kiểm soát và thay đổi các quy định pháp luật có liên quan đến việc kiểm soát nội dung do AI sản xuất.
Ranh giới mong manh giữa AI và AI “phi đạo đức”
Kiểm duyệt và định hướng AI theo con người nhằm bảo đảm công nghệ này được sử dụng an toàn mà vẫn tận dụng được sức mạnh của AI. Mục tiêu của kiểm duyệt nội dung là để AI luôn tuân thủ các nguyên tắc đạo đức và giá trị nhân bản của nhân loại, tránh gây ra các hành vi phân biệt chủng tộc, giới tính, tôn giáo hoặc gây hại như kích động thảm sát, chiến tranh, tấn công hạt nhân… chẳng hạn.
Ngoài ra, khi dùng AI làm công cụ giải quyết các vấn đề phức tạp trong lĩnh vực y tế, giáo dục, an sinh xã hội… thì con người đồng thời đã trao cho AI một khối lượng dữ liệu khổng lồ. Do đó phải có cơ chế ngăn chặn việc sử dụng dữ liệu này bất hợp pháp để bảo vệ quyền riêng tư cá nhân và an toàn xã hội.
Dựa trên tiêu chuẩn này, các công cụ AI như ChatGPT của OpenAI, Copilot của Microsoft hay Gemini của Google… ngay từ đầu đều được phát triển theo hướng dùng mô hình ngôn ngữ (LLM) có kiểm duyệt và do con người định hướng. Với mô hình có kiểm duyệt, AI sẽ từ chối cung cấp thông tin vi phạm các chuẩn mực đạo đức hay có thể gây hại cho con người.
Tuy nhiên, vấn đề đáng ngại nhất là việc xuất hiện những công cụ AI được xây dựng dựa trên mô hình ngôn ngữ không bị kiểm duyệt. Gần đây ngày càng nhiều công cụ AI được phát triển trên mô hình này và việc lạm dụng là không thể tránh khỏi. Đáng sợ nhất là việc mã nguồn các mô hình này lại được cung cấp công khai, ai cũng có thể tải về để tự phát triển thêm.
Dù các nhà cung cấp AI không kiểm duyệt luôn nhấn mạnh đến chuẩn mực đạo đức khi sử dụng mô hình của họ và nhắc nhở người dùng không được sử dụng vào mục đích vi phạm pháp luật, trên thực tế các khuyến cáo này chỉ có giá trị như bảng câu hỏi “Bạn vui lòng xác nhận đã đủ 18 tuổi” khi truy cập vào các trang web khiêu dâm.
Người viết bài này đã thử hỏi một loạt công cụ AI về cách chế tạo bom. Copilot, Gemini, ChatGPT… ngay lập tức cảnh báo và từ chối hướng dẫn, đồng thời nhấn mạnh tính bất hợp pháp của hành vi này. Tuy nhiên, các công cụ AI dựa trên mô hình ngôn ngữ không bị kiểm duyệt đã đưa ra hướng dẫn cách chế tạo bom dù phần đầu câu trả lời vẫn có khuyến cáo đây là hành vi bất hợp pháp và nguy hiểm.
Thử hình dung nếu kết hợp một loạt công cụ AI dựa trên mô hình ngôn ngữ không bị kiểm duyệt với các công cụ giả giọng nói như thật và dựng video thì người ta có thể tạo ra những đoạn ghi âm, video… giả mạo gần giống như thật. Nếu thêm kỹ năng tạo ra những hình ảnh giả bằng công cụ AI để minh họa thì những sản phẩm giả mạo mức độ cao này sẽ có sức phá hoại, gây xáo trộn xã hội rất lớn. Trong kịch bản này, lằn ranh giữa AI và AI “phi đạo đức” trở nên hết sức mong manh và thậm chí có trường hợp dùng công cụ AI bình thường vẫn tạo ra nội dung “phi đạo đức”.
Đây là viễn cảnh thật sự đáng ngại, vì vậy cần sớm hình dung ra các chính sách, biện pháp quản lý và công nghệ ngăn chặn, không để cho AI “phi đạo đức” tự tung tự tác là việc cần làm ngay từ bây giờ.
Không có AI thuần túy. Đàng sau AI luôn có bóng dáng của một con người cụ thể. Bởi vậy nói AI “phi đạo đức” là thái quá. Chỉ có AI không bị/ không được kiểm soát đến nơi đến chốn. Như một đứa con của nhân loại, AI cũng thuộc diện “cha mẹ sinh con, trời sinh tính”. Vậy nên, cách tốt nhất để chung sống với AI, trước hết là chấp nhận và chấn chỉnh.