(KTSG) - Công nghệ trí tuệ nhân tạo (Artificial Intelligence - AI) đang đem lại vô số các ứng dụng nâng cao chất lượng đời sống, nhưng kèm theo đó, là những nguy cơ về phân biệt đối xử, nhất là khi AI sử dụng dữ liệu mang tính phân biệt.
Càng ngày, những tiến bộ vượt bậc trong công nghệ càng làm cuộc sống chúng ta thay đổi nhanh chóng hơn. Đặc biệt, sự phát triển của AI đánh dấu một mốc phát triển mới trong lịch sử.
Những tác động tích cực của AI làm cho công nghệ này được coi là một trong những tiến bộ quan trọng nhất của xã hội loài người, mang lại những thay đổi to lớn trong đời sống mỗi cá nhân, từ chuyện nhỏ như lọc “thư rác” cho đến những ứng dụng trong chẩn đoán bệnh có thể giúp nâng cao tuổi thọ con người. Công nghệ AI đang ngày càng được ứng dụng rộng rãi hơn, và còn hứa hẹn những tiềm năng vô cùng to lớn trong tương lai. Các chuyên gia AI dự đoán một xã hội loài người với ô tô tự lái, máy tính chẩn đoán bệnh, âm nhạc, phim ảnh tự sáng tạo, thậm chí AI cũng sẽ thay thế cả... quan tòa.
Tuy nhiên, bất cứ tiến bộ công nghệ nào cũng có mặt trái của nó. Trong quyển sách 21 bài học cho thế kỷ 21, nhà sử học nổi tiếng người Israel Yuval Noah Harari đã cảnh báo một số nguy cơ đến từ AI. Theo ông, nếu như AI không được kiểm soát đúng mức, thì một ngày kia, việc não bộ con người bị AI xâm nhập và điều khiển sẽ không còn xa. Nhà sử học này cũng so sánh nguy cơ này nghiêm trọng không kém biến đổi khí hậu hay chiến tranh nguyên tử. Tất nhiên, Yuval Noah Harari nói đến nguy cơ “hack” não bộ con người trong tương lai, với giả thuyết chúng ta không kiểm soát được sự phát triển của AI.
Hiện nay luật chống phân biệt đối xử, luật về bảo vệ dữ liệu đang là những nguồn chính để bảo vệ cá nhân trước những phân biệt đối xử do AI gây ra. Một số khả năng đang được xem xét, như sử dụng luật bảo vệ người tiêu dùng, luật chống cạnh tranh, luật hành chính, hình sự...
Vậy ở thời điểm hiện tại, AI có thể gây ra những tác động tiêu cực nào? Hiện nay, chúng ta cũng đang dần nhận ra những hành vi “lạm dụng” AI, dẫn đến những hậu quả tiêu cực trong xã hội. Một trong số những vấn đề đó là sự bất bình đẳng, phân biệt đối xử.
Đối với nhiều người, thật khó có thể tìm mối liên kết giữa phân biệt đối xử và AI. AI vốn dựa vào các thuật toán, và vì thế được cho là hoàn toàn lý trí, khách quan và trung dung. Tuy nhiên, AI lại hoàn toàn có thể đưa ra những “quyết định” mang tính phân biệt đối xử, vì một số lý do như cách định nghĩa “biến mục tiêu” (target variable) hay “nhãn lớp” (class label), cách đặt nhãn dữ liệu, cách thu thập dữ liệu, cách chọn lựa đặc trưng (feature selection)...
Ví dụ cụ thể sau đây có thể giải thích rõ hơn mối liên hệ này. Giả sử như một công ty sử dụng hệ thống AI để phân loại nhân viên “tốt” và “kém”. Nếu như công ty này sử dụng nhãn lớp “ít khi đi làm muộn” thay vì “bán được nhiều sản phẩm” để phân loại, thì sẽ dẫn đến kết quả là các nhân viên công ty thuộc nhóm thu nhập thấp trong xã hội sẽ thường bị coi là nhân viên “kém”, cho dù hiệu quả công việc có thể cao hơn nhóm được đánh giá là nhân viên “tốt”. Lý do chính ở đây là vì người thu nhập thấp thường phải sử dụng các phương tiện giao thông công cộng để đi làm, và vì thế dễ bị đi làm muộn hơn người có thu nhập cao (đi làm bằng phương tiện cá nhân).
Gần đây, một nghiên cứu chỉ ra “lỗi” trong việc lọc hồ sơ thí sinh ở một trường y tại Anh. Khi hệ thống AI sử dụng những dữ liệu (training data) mang tính phân biệt giới tính và hạn chế người gốc nhập cư, thì kết quả là AI đưa ra những quyết định cũng mang tính phân biệt nói trên.
Một ví dụ khác là hệ thống COMPAS sử dụng tại Mỹ để dự đoán những tội phạm sẽ lại tiếp tục phạm tội. Cho dù COMPAS không sử dụng chủng tộc, màu da như dữ liệu đầu vào, nhưng nghiên cứu cho thấy COMPAS... kỳ thị người da màu. Nếu như chương trình này dự đoán chính xác 61% khả năng tái phạm, thì khả năng người da đen bị xếp vào nhóm nguy cơ cao tái phạm là gấp đôi người da trắng, trong khi thực tế không hề như dự đoán.
Timnit Gebru là một nhà nghiên cứu người Mỹ gốc Phi. Sau nhiều năm làm việc tại Google, cô đã trở thành một nhà vận động chống lại những định kiến về màu da, giới tính và định kiến xã hội trong các thuật toán của AI. Mục đích của Timnit Gebru là làm cho các ông lớn công nghệ thuộc nhóm GAFAM (Google, Apple, Facebook, Amazon, Microsoft) ý thức hơn về những bất công mà AI có thể gây ra trong tương lai. Cũng chính vì những bài nghiên cứu về nguy cơ vi phạm các nguyên tắc đạo đức xã hội của AI mà mối quan hệ của cô với Google trở nên tồi tệ đi, dẫn đến kết quả là cô từ bỏ công ty này.
Theo Timnit Gebru, trí thông minh nhân tạo không... thông minh như ta tưởng. Tất nhiên, chúng ta chưa ở giai đoạn phát triển cho phép máy tính tự suy nghĩ như con người. Hiện nay, máy tính mới có thể xử lý một số lượng dữ liệu khổng lồ để rút ra câu trả lời, nhưng... chẳng hiểu gì dữ liệu cả. Cô cho rằng một số lượng lớn dữ liệu sử dụng hiện nay đều mang góc nhìn phương Tây, thiếu khách quan và vì thế việc sử dụng các dữ liệu này lại càng tạo ra các định kiến và khuôn mẫu (stereotype).
Ở góc độ pháp lý, hiện nay có thể nói rằng luật chống phân biệt đối xử, cũng như luật về bảo vệ dữ liệu đang là những nguồn chính để bảo vệ cá nhân trước những phân biệt đối xử do AI gây ra. Tuy nhiên, luật chống phân biệt đối xử áp dụng cho AI sẽ gặp rất nhiều khó khăn trên thực tế, trong khi luật về dữ liệu lại có nhiều bất cập, ví dụ như không áp dụng cho các thuật toán mà không xử lý dữ liệu cá nhân. Một số khả năng đang được xem xét, như sử dụng luật bảo vệ người tiêu dùng, luật chống cạnh tranh, luật hành chính, hình sự để hạn chế những phân biệt đối xử đến từ AI.
AI và chống phân biệt đối xử cũng đang là chủ đề được quan tâm ở nhiều quốc gia, cũng như của Ủy ban Châu Âu. Trong khu vực tư nhân, một số doanh nghiệp, tổ chức cũng đang hướng tới mục đích xây dựng AI “lành mạnh”, phù hợp đạo đức xã hội, như có thể kể đến chương trình “Partnership on AI to Benefit People and Society” của Apple, Amazon, DeepMind, Google, Facebook, IBM và Microsoft nhằm nghiên cứu và tìm ra những hoạt động của AI có tác động tích cực nhất tới sự phát triển của xã hội.
Rõ ràng là AI đang đem lại vô số các ứng dụng nâng cao chất lượng đời sống, nhưng kèm theo đó, là những nguy cơ về phân biệt đối xử, nhất là khi AI sử dụng dữ liệu mang tính phân biệt. Hiện nay, để giải quyết vấn đề này, một số kiến nghị cũng đã được đưa ra để ngăn chặn những phân biệt đối xử khi sử dụng AI, gồm các giải pháp về giáo dục, giải pháp kỹ thuật cũng như pháp lý. Đồng thời, chúng ta cũng cần thêm những nghiên cứu đa ngành, xuyên ngành, cũng như cần trao đổi và thảo luận rộng rãi, để tìm ra cách khắc phục “điểm yếu” của công nghệ AI. Chỉ khi chúng ta có những lựa chọn đúng đắn, thì nguy cơ phân biệt đối xử mới có thể giảm đi.