(KTSG Online) - Các lãnh đạo của OpenAI và Google Deepmind, đơn vị phát triển trí tuệ nhân tạo (AI) của Google đã cùng hàng trăm lãnh đạo doanh nghiệp, nhà nghiên cứu và kỹ sư ký tên vào một tuyên bố, cảnh báo rằng, đến một ngày nào đó, công nghệ AI có thể là mối đe dọa sống còn đối với nhân loại.
Vì vậy, những người này kêu gọi quản lý rủi ro của AI đối với xã hội với mức độ khẩn cấp như ứng phó với rủi ro đại dịch và chiến tranh hạt nhân.
- Cuộc đua kiểm soát AI lan rộng trên toàn cầu
- Elon Musk: AI là một trong rủi ro lớn nhất đối với tương lai của nền văn minh
“Giảm thiểu nguy cơ tồn vong từ AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác, chẳng hạn như đại dịch và chiến tranh hạt nhân”, Trung tâm An toàn AI (CAIS), có trụ sở tại San Francisco (Mỹ) đưa ra tuyên bố hôm 30-5.
Dan Hendrycks, CEO của CAIS, giải thích nội dung ngắn gọn của tuyên bố (chỉ có 22 từ tiếng Anh) là nhằm mục đích tập hợp cả những chuyên gia AI có thể không đồng ý về bản chất của các rủi ro cụ thể hoặc các bước để ngăn chặn những rủi ro đó xảy ra nhưng chia sẻ lo ngại chung về sức mạnh của hệ thống AI.
“Chúng tôi không muốn thúc đẩy một danh sách quá lớn gồm 30 biện pháp can thiệp tiềm năng. Điều này sẽ làm loãng thông điệp của chúng tôi”, Hendrycks nói và cho rằng tuyên bố này cho phép một số nhà lãnh đạo trong ngành bày tỏ công khai lo ngại của họ về mối đe dọa của AI.
“Có một quan niệm sai lầm rất phổ biến, ngay cả trong cộng đồng AI, cho rằng hiện nay, chỉ có vài người lo ngại về mối đe dọa sống còn từ về AI,” Hendrycks nói.
Theo New York Times, cho đến nay, có hơn 350 lãnh đạo doanh nghiệp, nhà nghiên cứu và kỹ sư làm việc trong lĩnh AI đã ký tên vào tuyên bố. Trong số này có những nhà lãnh đạo của các công ty AI hàng đầu hiện nay, gồm Sam Altman, CEO của OpenAI, Demis Hassabis, CEO Google DeepMind, và Dario Amodei, CEO của Anthropic, công ty AI do các cựu thành viên của Open AI thành lập.
Geoffrey Hinton và Yoshua Bengio, hai trong số ba nhà nghiên cứu giành được giải thưởng Turing cho công trình tiên phong về mạng thần kinh và thường được coi là những người đặt nền tảng của AI hiện đại, cũng ký tên trong tuyên bố,
Ngoài ra, Kevin Scott, Giám đốc công nghệ của Microsoft, Mustafa Suleyman, cựu đồng sáng lập Deepmind, hiện là CEO của Inflection AI cũng ký tên.
Tuyên bố được đưa ra vào thời điểm có nhiều lo sợ về tác hại tiềm ẩn của AI. Những tiến bộ gần đây trong cái gọi là mô hình ngôn ngữ lớn, hệ thống AI vận hành ChatGPT của OpenAI và các chatbot khác đã làm dấy lên lo ngại rằng AI sẽ sớm được sử dụng trên quy mô lớn để truyền bá thông tin sai lệch hoặc có thể loại bỏ hàng triệu công việc văn phòng.
Một số chuyên gia tin rằng, AI có thể trở nên đủ mạnh để có thể gây ra những xáo trộn ở quy mô xã hội trong vòng vài năm nếu không có biện pháp nào làm ghìm tốc độ phát triển của công nghề này.
Nhiều nhà lãnh đạo trong ngành cũng chia sẻ những trăn trở tương tự. Điều này đặt các nhà lãnh đạo vào tình thế bất thường khi lập luận rằng công nghệ mà họ đang ráo riết chạy đua để xây dựng nhanh hơn các đối thủ, đặt ra những rủi ro nghiêm trọng và cần được quản lý chặt chẽ hơn.
Trong tháng này này, CEO của OpenAI, Google DeepMind và Anthropic đã gặp Tổng thống Joe Biden và Phó Tổng thống Kamala Harris để thảo luận về việc quản lý AI.
Trong cuộc điều trần trước Thượng viện Mỹ hôm 16-5, Altman, CEO của OpenAI, cảnh báo những rủi ro của các hệ thống AI đủ nghiêm trọng để chính phủ cần phải can thiệp. Đồng thời, ông kêu gọi đặt ra những quy định quản lý những tác hại tiềm tàng của AI.
Thực tế, có một số chuyên gia cho rằng công nghệ AI vẫn quá non trẻ để gây ra mối đe dọa sống còn. Khi nói đến AI, những chuyên gia này lo ngại về các vấn đề tức thời hơn, chẳng hạn như AI đưa ra các câu trả lời sai và thành kiến.
Tuy nhiên, những người khác lập luận rằng AI đang phát triển nhanh đến mức đã vượt qua năng lực cấp độ con người ở một số lĩnh vực và công nghệ này sẽ vượt trội con người ở những lĩnh vực khác. Công nghệ AI đã chứng tỏ các dấu hiệu về khả năng và sự hiểu biết cấp cao, làm nảy sinh lo ngại rằng “trí tuệ tổng hợp nhân tạo” (AGI), một dạng trí tuệ nhân tạo có thể sánh ngang hoặc vượt qua hiệu suất ở cấp độ con người trong nhiều nhiệm vụ khác nhau, có thể không còn xa vời.
Trong một bài đăng trên blog vào tuần trước, ông Altman và hai lãnh đạo khác của OpenAI khác đề xuất một số cách quản lý có trách nhiệm đối với các hệ thống AI. Ba nhân vật này kêu gọi sự hợp tác của các nhà phát triển AI để nghiên cứu kỹ thuật nhiều hơn về các mô hình ngôn ngữ lớn và thành lập một tổ chức an toàn về AI, tương tự như Cơ quan Năng lượng nguyên tử quốc tế (IAEA), tổ chức được giao nhiệm vụ tìm cách kiểm soát mối đe dọa vũ khí hạt nhân trên toàn cầu.
Altman cũng đã bày tỏ sự ủng hộ đối với quy định yêu cầu các nhà phát triển các mô hình AI phải đăng ký giấy phép do chính phủ cấp.
Hồi tháng 3, hơn 1.000 chuyên gia công nghệ và nhà nghiên cứu bao gồm tỉ phú Elon Musk, CEO của Tesla đã ký một bức thư ngỏ khác kêu gọi tạm dừng phát triển các hệ thống siêu AI trong sáu tháng do lo lắng trước cuộc chạy đua không kiểm soát để phát triển và triển khai ngày càng nhiều “các bộ óc kỹ số mạnh mẽ”.
Sự cấp bách trong các cảnh báo các nhà lãnh đạo AI tăng lên khi hàng triệu người đã chuyển sang sử dụng chatbot AI để giải trí, trò chuyện và tăng năng suất cũng như khi các mô hình ngôn ngữ lớn cải thiện với tốc độ nhanh chóng.
Theo NY Times, WSJ