Thứ Hai, 15/07/2024
35.6 C
Ho Chi Minh City

Đã nên bàn chuyện kiểm soát AI chưa?

Kinh tế Sài Gòn

Kinh tế Sài Gòn Online

Kinh tế Sài Gòn Online

(KTSG) – Song song với nhiều tin tức về các bước đột phá trong khai thác trí tuệ nhân tạo (AI) chúng ta cũng đọc được nhiều cảnh báo về các mối nguy AI có thể đem lại cho nhân loại cũng như những nỗ lực của các nước tìm cách kiểm soát sự phát triển công nghệ sử dụng AI.

Mới đây nhất 28 nước, trong đó có những nước đi đầu trong lĩnh vực AI như Mỹ, Trung Quốc đã ngồi lại tại Anh để cùng nhau bàn bạc các chính sách hạn chế rủi ro do AI gây ra; nhiều nước khác đã ban hành những chính sách kiểm soát ban đầu khá cụ thể.

Câu hỏi đặt ra là với Việt Nam, mới tiếp cận bước đầu với AI, chưa đủ tiềm lực để đầu tư mạnh vào AI, liệu có cần bàn đến các biện pháp kiểm soát sự phát triển của công nghệ mới mẻ này như các nước nói trên? Thật ra, trong một thế giới kết nối như hiện nay, rất nhiều người trong chúng ta đã tiếp xúc với AI hàng ngày, không ít người đã bị phơi nhiễm trước các rủi ro do AI gây ra mà không hề hay biết.

Chưa kể việc đăng ký sử dụng các ứng dụng AI như ChatGPT hay DALL-E, các thuật toán giới thiệu phim để xem trên Netflix, nhạc để nghe trên Spotify… cũng là một dạng AI. Khi chúng ta tải ảnh chân dung lên để một ứng dụng nào đó chỉnh sửa, tạo ảnh mới theo một phong cách nào đó cũng là sử dụng AI. Rất có khả năng các mối nguy do kẻ xấu lợi dụng AI để lừa đảo như các cuộc gọi dùng hình ảnh giả mạo người thân, các đoạn video ghép nối nạn nhân vào phim khiêu dâm, tạo ảnh nude giả mạo sẽ xuất hiện ở nước ta như đã xuất hiện ở nhiều nước. Đó là chưa kể hàng ngày trên các mạng xã hội, rất có khả năng chúng ta tiếp xúc với tin giả, ảnh giả, thuyết âm mưu do kẻ xấu dùng AI tạo ra và lan truyền.

Việc 28 nước ngồi bàn cách kiểm soát AI khi sẵn sàng thừa nhận chưa hiểu hết về nó là bài học rất đáng tham khảo. Rất cần có biện pháp bảo vệ người dân, đặc biệt là người yếu thế, người chưa có nhiều kinh nghiệm trước các rủi ro liên quan đến AI. Các biện pháp này sẽ được liên tục cập nhật theo hiểu biết của thế giới và thực tế ở nước ta; chẳng hạn trước mắt yêu cầu nơi nào cung cấp dịch vụ chỉnh sửa ảnh bằng công nghệ AI phải đính kèm dấu hiệu nhận biết như đóng dấu mời “Do AI tạo ra”. Chí ít các sản phẩm do AI tạo ra phải được ghi rõ như thế và thông tin này được dễ dàng truy xuất khi cần nhằm giúp người dân phân biệt thật – giả.

Ở một số nước, nỗi lo AI xoay quanh chuyện các công nghệ sử dụng AI có rủi ro phân biệt đối xử có thể gây bất lợi cho một số nhóm người do AI cũng có thiên kiến như người biên soạn ra nó hay dùng AI trong nhận dạng kẻ tình nghi tội phạm có thể nghiêng về người da màu do đó là điểm yếu của công nghệ nhận diện gương mặt. Ở nước ta không có nỗi lo này nhưng rất có khả năng khi chuyển đổi số hóa nhiều dịch vụ công, nhiều thủ tục hành chính cho dù có sử dụng AI hay không, có thể chúng ta vô tình gây khó khăn cho những người không có điều kiện tiếp cận công nghệ khi buộc tất cả phải làm trực tuyến. Giả dụ sau này khi ứng dụng AI vào nhiều lĩnh vực trong xã hội, yếu tố giúp tất cả đều có khả năng tiếp cận như nhau là rất quan trọng, kể cả duy trì các kênh truyền thống cho những người chưa thể tiếp cận ứng dụng công nghệ.

Bài học ứng phó với mạng xã hội để hạn chế các mặt tiêu cực vẫn còn nguyên tính thời sự khi áp dụng cho câu hỏi có cần kiểm soát AI chưa.

1 BÌNH LUẬN

  1. Biến động nhân sự hỗn loạn mới đây ở công ty OpenAI cho thấy một thực tế phũ phàng. Một bên mong muốn tối đa hóa giá trị và lợi ích từ AI. Bên kia muốn bảo vệ mục đích phi lợi nhuận của AI vì mục tiêu phụng sự cộng đồng. Tiền tệ mâu thuẫn gay gắt với trí tuệ. Khi lợi ích vật chất càng tăng thì năng lực tỉnh thức của trí tuệ càng giảm. Đây sẽ là lý do cốt tử dẫn dắt xu thế phát triển đúng hướng/ hoặc chệch hướng của công cụ AI. Rủi ro AI đã được giới tinh hoa cảnh báo. Việt Nam ta tuy không phải là người trong cuộc, có năng lực chi phối dòng chảy này, nhưng cũng không nên chủ quan đứng ngoài cuộc. Mọi sự chuẩn bị trước đều không thừa.

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Tin liên quan

Có thể bạn quan tâm

Tin mới