(KTSG Online) – Nghị viện châu Âu, cơ quan lập pháp của Liên minh châu Âu (EU), vừa thông qua dự thảo của Đạo luật trí tuệ nhân tạo (AI), bao gồm các điều khoản hạn chế sử dụng công nghệ AI cho các mục đích rủi ro nhất cũng như đòi hỏi các hệ thống AI như ChatGPT của OpenAI phải tiết lộ dữ liệu được sử dụng để tạo ra chúng. Chẳng hạn, đạo luật sẽ cấm các hệ thống AI sử dụng công nghệ giám sát sinh trắc học theo thời gian thực, bao gồm nhận dạng khuôn mặt ở các không gian công cộng.
- Nghị sĩ châu Âu kêu gọi triệu tập hội nghị toàn cầu để tìm cách kiểm soát siêu AI
- Cuộc đua kiểm soát AI lan rộng trên toàn cầu
Hôm 14-6, Nghị viện châu Âu đã bỏ phiếu thông qua dự thảo Đạo luật AI, đánh dấu lần đầu tiên một đạo luật quản lý AI toàn diện được thúc đẩy trên thế giới. Động thái bỏ phiếu này chỉ là một bước trong một quy trình dài trước khi đạo luật có hiệu lực. Các đại diện của Nghị viện châu Âu, Ủy ban châu Âu và Hội đồng châu Âu sẽ đàm phán nội dung phiên bản cuối cùng của Đạo luật AI. Họ hy vọng sẽ hoàn tất đàm phán vào cuối năm nay,
Đạo luật AI của EU phân loại các hệ thống AI theo 4 cấp độ rủi ro, từ mức tối thiểu đến mức không thể chấp nhận được. Danh sách hệ thống AI có rủi ro cao mà EU xác định bao gồm hệ thống AI sử dụng trong các cơ sở hạ tầng quan trọng, giáo dục, nguồn nhân lực, trật tự công cộng và quản lý nhập cư. Mức độ rủi ro của hệ thống AI đối với các quyền và sức khỏe của con người cao thì các quy định quản lý càng siết chặt hơn.
Chẳng hạn, các hệ thống AI có rủi ro cao được sử dụng trong các lĩnh vực như việc làm và giáo dục, có thể ảnh hưởng đáng kể đến cuộc sống của con người, sẽ phải đối mặt với các yêu cầu nghiêm ngặt hơn như tính minh bạch và độ chính xác trong việc sử dụng dữ liệu.
Các nhà cung cấp hệ thống AI phải tiến hành thẩm định rủi ro trước khi triển khai hệ thống này để sử dụng hàng ngày, tương tự như quy trình phê duyệt thuốc men.
Một điều khoản khác của Đạo luật AI sẽ cấm các công ty thu thập dữ liệu sinh trắc học từ các nền tảng truyền thông xã hội để xây dựng cơ sở dữ liệu của họ.
Hành vi vi phạm các quy định của Đạo luật AI có thể bị phạt tới 30 triệu euro hoặc 6% doanh thu toàn cầu hàng năm của công ty cung cấp hệ thống AI liên quan.
EU đã tiến xa hơn Mỹ và các chính phủ phương Tây lớn trong nỗ lực quản lý AI. Khối này đã tranh luận về chủ đề AI trong hơn hai năm và tình hình trở nên cấp bách hơn sau khi ChatGPT được phát hành vào cuối năm ngoái, làm gia tăng mối lo ngại về tác động tiềm ẩn của công nghệ AI đối với việc làm và xã hội.
Các nhà hoạch định chính sách trên thế giới, từ Washington đến Bắc Kinh, đang chạy đua để kiểm soát công nghệ AI tạo sinh đang phát triển nhanh chóng, gây báo động ngay cả với một số lãnh đạo của ngành công nghệ AI đã tạo ra nó.
Tại Mỹ, Nhà Trắng đã đưa ra các ý tưởng chính sách bao gồm yêu cầu bảo vệ quyền riêng tư và thử nghiệm các thống AI trước khi triển khai rộng rãi cho người dùng. Tại Trung Quốc, dự thảo quản lý AI, công bố hồi tháng 4, yêu cầu các nhà cung cấp dịch vụ AI phải tuân thủ các quy định kiểm duyệt nghiêm ngặt.
Hiệu quả của bất kỳ quy định quản lý AI nào cũng có thể chưa rõ ràng. Trong một dấu hiệu cho thấy sự phát triển các năng lực mới của công nghệ AI dường như nhanh hơn khả năng giải quyết của các nhà lập pháp, các phiên bản dự thảo luật quản lý AI trước đó của EU không chú ý nhiều đến các hệ thống AI tạo sinh, như ChatGPT, có thể tạo văn bản, hình ảnh và video để phản hồi mệnh lệnh của người dùng.
Trong phiên bản dự thảo mới của Đạo luật AI, vừa được Nghị viên châu Âu thông qua, AI tạo sinh sẽ đối mặt với các yêu cầu mới về tính minh bạch. Chẳng hạn, đạo luật yêu cầu các nhà cung cấp hệ thống AI tạo sinh phải công bố bản tóm tắt tài liệu có bản quyền được sử dụng để đào tạo hệ thống đó. Quy định này được ngành ngành xuất bản và truyền thông ủng hộ nhưng bị các nhà phát triển công nghệ phản đối vì không khả thi về mặt kỹ thuật. Các nhà cung cấp hệ thống AI cũng sẽ phải áp dụng các biện pháp bảo vệ để ngăn hệ thống tạo ra nội dung bất hợp pháp.
Francine Bennett, quyền giám đốc của Viện Ada Lovelace, một tổ chức nghiên cứu ở London, nhận định Đạo luật AI của EU là một “cột mốc quan trọng”.
“Tất nhiên, rất khó để quản lý những công nghệ chuyển động nhanh và có thể thay đổi mục đích sử dụng nhanh chóng. Ngay cả các công ty phát triển công nghệ này cũng không hoàn toàn rõ ràng về cách mọi thứ sẽ diễn ra. Nhưng chắc chắn sẽ tồi tệ hơn nếu tất cả chúng ta tiếp tục vận hành AI mà không có quy định quản lý đầy đủ nào cả”, bà nói.
Hiệp hội ngành công nghiệp máy tính và truyền thông (CCIA), một tổ chức phi lợi nhuận có trụ sở ở Washington, cho rằng EU nên tránh các quy định quản lý quá rộng rãi, làm kìm hãm sự sáng tạo.
“EU đang trở thành người đi đầu trong việc quản lý AI nhưng liệu khối này có dẫn đầu về sáng tạo AI không vẫn còn phải chờ xem. Các quy định quản lý AI của châu Âu cần phải giải quyết hiệu quả các rủi ro được xác định rõ ràng, đồng thời bảo đảm đủ sự linh hoạt cho các nhà phát triển để họ có thể cung cấp hệ thống AI có những ứng dụng mang lại lợi ích cho tất cả người dân châu Âu”, Boniface de Champris, giám đốc chính sách châu Âu của CCIA, nói.
Một trong những vấn đề được tranh luận nhiều nhất là việc sử dụng công nghệ nhận dạng khuôn mặt trong hệ thống AI. Nghị viện châu Âu đã bỏ phiếu cấm hệ thống AI sử dụng công nghệ nhận dạng khuôn mặt theo thời gian thực ở những không gian công cộng. Tuy nhiên, nhiều người đang đặt câu hỏi về việc có nên miễn trừ quy định cấm này vì lợi ích an ninh quốc gia và các mục đích thực thi pháp luật khác hay không.
Sam Altman, CEO của OpenAI, đang kêu gọi các chính phủ hợp tác để quản lý AI nhưng ông cũng nói rằng Đạo luật AI của EU có thể quá khó để tuân thủ. Ông đe dọa sẽ rút ChatGPT khỏi châu Âu nếu Đạo luật AI đặt ra các quy định quản lý quá mức.
Tuy nhiên, Margrethe Vestager, Phó chủ tịch EC, nhấn mạnh: “AI nên phục vụ con người, xã hội và môi trường chứ không phải ngược lại”.
Theo NY Times, Pymnts