Chủ Nhật, 12/10/2025
31.1 C
Ho Chi Minh City

‘Chơi dao AI có ngày đứt tay’ không chừa một ai! 

Mục Nhĩ

Kinh tế Sài Gòn Online

Kinh tế Sài Gòn Online

(KTSG Online) - Tập đoàn Deloitte phải hoàn trả một phần giá trị hợp đồng cho chính phủ Úc sau khi bị phát hiện đưa dữ liệu không có thật vào báo cáo. Sự cố này đặt ra vấn đề doanh nghiệp phải có cơ chế phát hiện và ngăn chận AI "bịa chuyện" cũng như sớm. ban hành “chuẩn đạo đức AI”.

Big Four là cách gọi quen thuộc của bốn công ty kiểm toán lớn nhất thế giới cả về quy mô, doanh thu lẫn bề dày lịch sử gồm Price Waterhouse Cooper (PwC), Deloitte, Ernst & Young (EY) và KPMG.

Có thể nói là thương hiệu Big Four được xem như bảo chứng về uy tín và độ tin cậy. Thế nhưng mới đây, Deloitte Úc lại bị "sập hầm" khi dùng AI đưa các thông tin không có thật vào báo cáo. Vụ này được xem là sự cố AI đầu tiên trong lĩnh vực kiểm toán - tư vấn ở cấp độ quốc gia, đồng thời cũng là hồi chuông cảnh báo nguy cơ trí tuệ nhân tạo (AI) “bịa chuyện” (hallucination) đã lan sang các lĩnh vực có yêu cầu độ chính xác cao như pháp lý, kế toán và tài chính.

Theo bản tin của AP News hôm 10-10, Deloitte Úc cho biết sẽ hoàn trả một phần số tiền 440.000 đô la Úc (290.000 đô la Mỹ) mà chính phủ Úc đã trả vì bản báo cáo của Deloitte chứa khoảng 20 lỗi do AI tạo ra, bao gồm một câu trích dẫn giả mạo từ phán quyết của tòa án liên bang và các tài liệu nghiên cứu học thuật không tồn tại. Deloitte thừa nhận có sử dụng AI trong khâu soạn thảo, phân tích và cho rằng lỗi xuất phát từ việc thiếu kiểm chứng của nhóm biên tập.

Báo cáo của công ty tư vấn này thực hiện cho Bộ Việc làm và Quan hệ Lao động Úc (DEWR) được công bố trên trang web của bộ này hồi tháng 7. Một nhà nghiên cứu tại đại học Sydney đã phát hiện báo cáo có tài liệu tham khảo giả mạo. Sau đó, DEWR đã xem xét lại báo cáo dài 237 trang này và xác nhận một số chú thích và tài liệu tham khảo không chính xác (*).

Hiện tượng các hệ thống AI tạo sinh tạo ra thông tin sai lệch được gọi là “hallucination”, đã được đề cập khá nhiều trong khoảng thời gian gần đây. Theo tổng hợp của Reuters, tính đến năm 2025 đã có hơn 30 vụ việc AI “bịa chuyện” trong các hồ sơ pháp lý, báo cáo nghiên cứu hoặc tài liệu tư vấn. Tại Mỹ năm 2023 đã có hai luật sư bị phạt vì nộp bản luận cứ có sáu án lệ hoàn toàn giả tạo, tất cả được AI “sáng tác”. Sang năm 2025 lại có thêm ba luật sư bị loại khỏi vụ án vì hồ sơ chứa nhiều trích dẫn giả. Tại Anh cũng ghi nhận trường hợp hồ sơ có các trích dẫn án lệ hoàn toàn giả và hai luật sư thừa nhận đã dùng công cụ AI để tra cứu.

Những vụ việc kể trên này dẫn đến phản ứng mạnh từ hệ thống tư pháp Mỹ. Tòa án liên bang, các hiệp hội luật sư và trường luật đều đã ban hành hướng dẫn bắt buộc về việc sử dụng AI. Trong khi đó, các tổ chức chuyên môn về kế toán - kiểm toán quốc tế như ACCA, IFAC đang xem xét đưa vào chuẩn mực đạo đức nghề nghiệp điều khoản mới là  “AI reliance disclosure”, tức yêu cầu công bố nếu AI được dùng trong quá trình soạn báo cáo, tương tự như quy định về nguồn dữ liệu và phương pháp thống kê.

Sự cố của Deloitte là lời cảnh báo, ngay cả những tập đoàn lớn và chuyên nghiệp nhất cũng có thể “sập bẫy” AI nếu không có cơ chế kiểm chứng chặt chẽ. Trong bối cảnh các chính phủ và cơ quan tài chính trên thế giới đang tăng tốc số hóa, việc xây dựng “chuẩn đạo đức AI” trở nên cấp thiết hơn bao giờ hết. AI có thể giúp con người làm việc nhanh hơn nhưng sự thật và trách nhiệm vẫn không thể giao phó cho máy móc.

---------------------------

(*) https://apnews.com/article/australia-ai-errors-deloitte-ab54858680ffc4ae6555b31c8fb987f3

 

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Tin liên quan

Có thể bạn quan tâm

Tin mới