(KTSG) - Sự phát triển mạnh mẽ của các công cụ trí tuệ nhân tạo (AI) đang khiến người dùng vừa cảm thấy thích thú, vừa lo sợ vì những tác động to lớn mà chúng có thể đem lại. Điều này đã thôi thúc các chính phủ trên khắp thế giới tìm cách tăng cường quyền kiểm soát của mình đối với các công cụ AI.
- Khi trí tuệ nhân tạo bắt chước… giọng hát!
- Bình Định hướng đến hình thành trung tâm trí tuệ nhân tạo
Trong nhiều bức thư ngỏ, hàng trăm chuyên gia công nghệ và nhà nghiên cứu đã cảnh báo về sự nguy hiểm của AI. Trong đó, một bức thư được công bố hồi cuối tháng 3-2023, đã kêu gọi cần “tạm dừng” việc phát triển các mô hình AI mới trong vòng sáu tháng. Các nhà lãnh đạo công nghệ như tỉ phú Elon Musk và nhà đồng sáng lập Apple Steve Wozniak đều coi đây là điều cần thiết để xem xét các rủi ro.
“Tôi không nghĩ họ nên mở rộng quy mô của các mô hình AI, cho đến khi họ thực sự hiểu được mình có thể kiểm soát nó hay không”, nhà khoa học kỳ cựu Geoffrey Hinton - người thường được ví như “cha đỡ đầu” của AI, chia sẻ với New York Times. Hồi đầu tháng này, ông Hinton đã quyết định rút khỏi vị trí phó chủ tịch tại Google để có thể trực tiếp đưa ra những cảnh báo về mối đe dọa của AI.
Châu Âu nỗ lực dẫn đầu cuộc đua
Như thường lệ, châu Âu luôn là một trong những khu vực đi tiên phong trong việc thiết lập quy định kiểm soát các công nghệ mới. Hôm 11-5 vừa qua, Ủy ban Thị trường nội khối và Ủy ban Về quyền tự do dân sự thuộc Liên minh châu Âu (EU) đã thông qua hơn 3.000 điều chỉnh trong dự luật quản lý AI của khối này.
Những thay đổi mới trong dự luật yêu cầu các đơn vị phát triển AI tiến hành việc đánh giá mức độ an toàn, có giải pháp quản lý dữ liệu và giảm thiểu rủi ro trước khi đưa sản phẩm ra thị trường. Các công cụ AI cũng phải gửi thông báo lưu ý người dùng rằng sản phẩm của các công cụ này là do máy móc tạo ra, không phải con người.
Việc sử dụng công nghệ xác thực sinh trắc học, đặc biệt là nhận diện khuôn mặt, sẽ bị cấm ở nơi công cộng, trừ trường hợp chống khủng bố. Bên cạnh đó, cảnh sát cũng bị cấm dùng AI để đánh giá khả năng phạm tội của một người dựa trên hồ sơ tiền án.
Reuters đánh giá những điều chỉnh vừa được thông qua là bước tiến đầu tiên hướng đến đạo luật kiểm soát AI đầu tiên thế giới. Được đề xuất từ năm 2021, Đạo luật AI sẽ quản lý tất cả sản phẩm hoặc dịch vụ sử dụng công nghệ này. Đạo luật sẽ phân loại các công cụ AI theo mức độ nguy cơ mà mỗi công cụ có thể gây ra, từ mức thấp tới mức không thể chấp nhận được. Các chính phủ và các công ty sử dụng những công cụ này sẽ phải tuân thủ các nghĩa vụ khác nhau tùy theo mức độ nguy cơ, trong đó bao gồm yêu cầu minh bạch và sử dụng dữ liệu chính xác.
Dự kiến, Nghị viện châu Âu sẽ tiến hành biểu quyết thông qua dự thảo luật này vào giữa tháng 6 tới, trước khi tiến hành các cuộc thương lượng ba bên giữa Nghị viện châu Âu, Ủy ban châu Âu và chính phủ các nước thành viên.
Các chuyên gia nhận định, nếu được thông qua trong thời gian tới, các quy tắc của châu Âu có thể sẽ có ảnh hưởng lớn đến phần còn lại của thế giới, trở thành tiêu chuẩn toàn cầu trên thực tế cho AI.
Các chính phủ đồng loạt tăng tốc
Trong khi đó, phía bên kia bờ Đại Tây Dương, Chính phủ Mỹ cũng đã bắt đầu tăng tốc trong cuộc đua quản lý AI.
Hôm 4-5, Tổng thống Mỹ Joe Biden và một số quan chức chính phủ đã gặp gỡ CEO các công ty AI hàng đầu, bao gồm Microsoft và Google, để thảo luận về sự phát triển cũng như những rủi ro của công nghệ này. Trong cuộc họp kéo dài hai giờ, ông Biden đã nhấn mạnh rằng cần phải giảm thiểu rủi ro hiện tại và tiềm ẩn mà AI gây ra cho các cá nhân, xã hội và an ninh quốc gia.
Trước đó, hồi cuối tháng 4, Ủy ban Thương mại liên bang và bộ phận Dân quyền của Bộ Tư pháp Mỹ cũng cho biết sẽ sử dụng các cơ quan pháp lý của mình để chống lại mối nguy hại liên quan đến AI.
Còn tại Anh, chính phủ nước này cho biết, đã lên kế hoạch phân chia trách nhiệm quản lý AI giữa các cơ quan quản lý nhân quyền, sức khỏe và an toàn cũng như cạnh tranh, thay vì tạo ra một cơ quan mới. “AI có tiềm năng biến đổi mọi khía cạnh trong cuộc sống của chúng ta. Tất cả chúng ta đều biết điều đó”, Thủ tướng Rishi Sunak nhận định.
Sự cân bằng giữa thắt chặt kiểm soát và thúc đẩy sáng tạo
Theo Foreign Policy, việc thiết lập các khuôn khổ quy định chung cho công nghệ là điều rất khó khăn, đặc biệt là khi các công nghệ đó không ngừng phát triển.
Một trong những vấn đề quan trọng nhất là công nghệ luôn phát triển nhanh hơn so với các quy định được thiết lập để kiểm soát nó. Bà Sarah Chander, Cố vấn chính sách cấp cao của tổ chức quyền kỹ thuật số EDRi nhận định “Châu Âu là khu vực đầu tiên đang cố gắng tạo ra những sự điều chỉnh đáng kể đối với AI. Đây thực sự là một thách thức lớn, bởi các nhà lập pháp sẽ phải xem xét nhiều loại hệ thống mà thuật ngữ AI có thể bao hàm”.
Tuy nhiên, một mối lo ngại khác là các quy định kiểm soát, mặc dù xuất phát từ ý định tốt, nhưng quá chặt chẽ có thể cản trở sự phát triển của AI.
Hiện các hãng công nghệ lớn đều đang phản ứng khá thận trọng trước các động thái thắt chặt kiểm soát của giới chức chính phủ.
Trong một cuộc trả lời phỏng vấn hồi tháng trước, Mira Murati, Giám đốc công nghệ của OpenAI - công ty phát triển công cụ ChatGPT, đã bày tỏ quan điểm rằng các chính phủ nên tham gia vào việc điều tiết công nghệ AI.
Tuy nhiên, khi được hỏi liệu một số công cụ của OpenAI có nên được phân loại vào nhóm có rủi ro cao theo như các quy tắc được giới chức châu Âu được đề xuất hay không, bà cho biết, điều này còn phụ thuộc vào việc áp dụng công nghệ trong lĩnh vực nào. “Việc sử dụng công cụ AI trong lĩnh vực pháp lý hoặc y tế có rủi ro cao sẽ rất khác so với khi ứng dụng trong lĩnh vực kế toán hoặc quảng cáo”, bà nói.
Nguồn: Foreign Policy, AP, Reuters, Axios