(KTSG) - Chỉ trong một thời gian ngắn, những người đứng đầu các công ty đang tung ra các sản phẩm trí tuệ nhân tạo (AI), như ChatGPT của OpenAI hay Bing của Microsoft, thay nhau lên tiếng cảnh báo về những nguy cơ nghiêm trọng các hệ thống này có thể gây ra cho loài người. Câu hỏi bật ra: nếu họ lo sợ như thế, sao họ không ngưng ngay sản phẩm của mình làm ra; phải chăng những lời cảnh báo này chỉ là một đòn phép “tự tiếp thị”?
Gần đây nhất là một tuyên bố chỉ dài 22 từ của hàng trăm nhân vật nổi tiếng, trong đó có cả Sam Altman, Tổng giám đốc OpenAI và Bill Gates, người sáng lập Microsoft, dọa rằng rủi ro diệt vong do AI gây ra không kém các rủi ro đại dịch hay chiến tranh hạt nhân. Chỉ có điều họ không chịu giải thích, theo họ vì sao AI gây ra rủi ro diệt vong, các rủi ro này cụ thể là gì, làm sao để giảm thiểu rủi ro, vì sao đã biết đó là rủi ro nhưng họ vẫn dồn sức phát triển chúng?
Trước đó trong các buổi điều trần trước Quốc hội Mỹ hay trong các lá thư ngỏ khác, các chuyên gia AI, lãnh đạo các doanh nghiệp hàng đầu trong lĩnh vực AI, kể cả OpenAI, Google hay Microsoft đều yêu cầu cần nhanh chóng có luật lệ để kiểm soát, quản lý AI. Tuy nhiên quản lý như thế nào thì không ai nói rõ; trong khi chờ luật lệ ra đời, trách nhiệm của những nơi tung sản phẩm AI ra công chúng cũng không minh bạch, rõ ràng.
Tờ Atlantic trích lời Albert Fox Cahn, Tổng giám đốc Surveillance Technology Oversight Project, một tổ chức phi lợi nhuận, rằng theo ông đây chỉ là một màn PR tinh vi từ một công ty đang hoạt động hết công suất để xây dựng ngay chính công nghệ mà họ cảnh báo là có nguy cơ cho nhân loại. Các lời cảnh báo về nỗi sợ diệt vong đều mang hàm ý công nghệ AI có tiềm năng to lớn, các công ty đang phát triển nó có triển vọng thành các doanh nghiệp khổng lồ. Cảnh báo như thế làm cho sản phẩm họ làm ra có sức mạnh vô biên; mạnh đến nỗi chúng có thể tiêu diệt loài người.
Đó chính là một cách quảng cáo khôn khéo: các CEO của doanh nghiệp đang giới thiệu các mô hình AI mới khác nào các vị thần, tung ra công nghệ có sức mạnh tương tự lửa, điện, năng lượng hạt nhân, hay virus của một đại dịch toàn cầu. Đây cũng là cách tự bảo vệ cho uy tín của họ trong tương lai khỏi các phê phán có thể có như từng xảy ra với các doanh nghiệp sản xuất thuốc lá, các tập đoàn dầu khí hay thậm chí như với Facebook. Sau này họ có thể phân bua: đừng trách chúng tôi; chúng tôi từng cảnh báo và yêu cầu được quản lý rồi mà.
Một chuyên gia AI khác, Meredith Whittaker, đồng sáng lập AI Now Institute, nhấn mạnh với tờ Atlantic rằng họa diệt vong do AI gây ra chỉ là chuyện khoa học viễn tưởng. Nỗi lo hoang đường này thu hút sự chú ý của công chúng và những người làm luật, gây ra sự hoang mang không đáng có và làm mọi người quên đi vấn đề thật sự của công nghệ AI lẽ ra cần được quản lý.
Các sản phẩm AI đã được đưa vào sử dụng để nhận diện gương mặt, các thuật toán dùng trong tuyển dụng, chẩn đoán y tế từng được phát hiện có thiên lệch, nhận diện sai vì màu da, phân biệt giới tính, phân biệt chủng tộc… y như trong xã hội thật của con người. Các khiếm khuyết này không gây họa diệt vong nhưng cần được quản lý để xóa bỏ bằng các quy định cập nhật kịp thời.
Những vấn đề tương tự của các hệ thống AI có thể kể đến vi phạm bản quyền, làm công cụ tiếp tay lừa đảo… lại không được chú ý đầy đủ trong khi kịch bản con người bị AI đẩy đến chỗ diệt vong sẽ làm ai nấy bỏ qua các khiếm khuyết được xem là nhỏ và chủ nhân các hệ thống này có thể thoát các quy định trói tay trói chân họ để bảo vệ các cộng đồng bị ảnh hưởng.
Trong một bài viết về cùng chủ đề này, tờ Financial Times gián tiếp cho rằng việc cảnh báo nguy cơ của AI có thể là cách các lãnh đạo doanh nghiệp AI giành quyền soạn thảo luật lệ AI cho mình. Tờ báo giả sử lãnh đạo của JPMorgan giải thích cho Quốc hội Mỹ rằng vì các sản phẩm tài chính quá phức tạp, các nghị sĩ không hiểu hết đâu, nên để ngành ngân hàng tự quyết định làm thế nào để ngăn ngừa nạn rửa tiền, phát hiện lừa đảo, ấn định các tỷ lệ bảo đảm tính thanh khoản…
Đây là chuyện không nhà lập pháp nào để xảy ra, như không ai để các nhà sản xuất thuốc lá soạn luật bảo vệ người tiêu dùng, các tập đoàn dầu khí bảo vệ môi trường. Thế nhưng rất có khả năng các nhà làm luật đang dựa vào chính các doanh nghiệp phát triển hệ thống AI để biên soạn luật lệ kiểm soát chúng, bởi giới làm luật không hiểu nhiều về AI và nhất là chính các lãnh đạo doanh nghiệp này đang cảnh báo rủi ro và đòi có luật lệ để kiểm soát!