Thứ Bảy, 28/06/2025
27 C
Ho Chi Minh City

ChatGPT và hành vi vu khống: Liệu OpenAI có phải chịu trách nhiệm?

Lê Thiên Hương

Kinh tế Sài Gòn Online

Kinh tế Sài Gòn Online

A.I

(KTSG) - Khi thấy ChatGPT đưa ra thông tin mình bị kết tội biển thủ tiền, ông Mark Walter đã khởi kiện Công ty OpenAI, chủ nhân của ChatGPT, vì thông tin này mang tính vu khống cá nhân ông. Tuy nhiên, vào ngày 19-5-2025, tòa án có thẩm quyền của bang Georgia (Mỹ) đã bác bỏ đơn kiện của ông Mark Walter.

AI "có lỗi", công ty có phải chịu trách nhiệm? Ảnh: TL

Năm 2023, ông Frederick Riehl, một nhà báo Mỹ khi viết bài báo về quyền mang súng trong Hiến pháp Mỹ thì có sử dụng ChatGPT để tóm tắt vụ kiện Ferguson (một vụ kiện liên quan đến Tu chính án thứ 2 của Hiến pháp Mỹ). ChatGPT đã đưa ra thông tin về vụ kiện này và trích dẫn tên ông Mark Walter như giám đốc tài chính của Second Amendment Foundation (Quỹ ủng hộ Tu chính án thứ 2 về quyền mang súng) và ChatGPT có đưa thêm thông tin là ông Mark Walter bị kết tội biển thủ tiền của chính phủ trong vụ kiện Ferguson nói trên.

Tuy nhiên, cái tên ông Mark Walter được trích dẫn trong thông tin tóm tắt vụ kiện mà ChatGPT đưa ra nói trên lại là một phát thanh viên khá nổi tiếng ở Mỹ, và cũng là một người ủng hộ mạnh mẽ quyền mang súng. Vấn đề là ông Mark Walter chưa từng bị kết tội biển thủ, như ChatGPT khẳng định.

Cũng nên bổ sung ở đây chi tiết quan trọng là ChatGPT vẫn thường đưa ra cảnh báo cho người dùng rằng “hệ thống này có thể thỉnh thoảng tạo ra những thông tin sai lệch hay thiếu chính xác”, và ngay cả ông Riehl cũng thừa nhận rằng khi tương tác với ChatGPT thì thông báo miễn trừ trách nhiệm “ChatGPT có thể đưa ra thông tin thiếu chính xác về người, địa điểm hoặc sự kiện” thường hiện lên trên màn hình.

Khi thấy ChatGPT đưa ra thông tin mình bị kết tội biển thủ tiền, ông Mark Walter đã khởi kiện Công ty OpenAI, chủ nhân của ChatGPT. Theo ông Mark Walter, thông tin mà ChatGPT đưa ra ở đây mang tính vu khống cá nhân ông. Tuy nhiên, vào ngày 19-5-2025, tòa án có thẩm quyền của bang Georgia đã bác bỏ đơn kiện của ông Mark Walter(1).

Vụ kiện nói trên cho thấy để kiện OpenAI về hành vi ChatGPT đưa tin sai lệch không phải là chuyện dễ dàng. Rõ ràng là công ty này luôn cảnh báo về nguy cơ thông tin giả, thiếu chính xác mà ChatGPT đưa ra, và điều đó đủ để cho công ty này tránh phải chịu trách nhiệm khi ChatGPT trả lời sai lệch.

Thứ nhất, theo tòa án, không có cơ sở để kiện OpenAI vì tội vu khống. Để cấu thành tội vu khống, thứ nhất là cần phải chứng minh rằng những thông tin sai lệch đưa ra được “hiểu một cách hợp lý” theo nghĩa là “miêu tả sự thực về nguyên đơn hoặc các sự kiện mà nguyên đơn tham gia”.

Trong khi đó, trong trường hợp này thì ông Riehl không có lý do hợp lý nào để hiểu rằng những thông tin ChatGPT đưa ra là những thông tin chính xác, đích thực, bởi vì khi tương tác với ChatGPT, ông đã nhận được những thông tin trái ngược.

Vì có cơ sở để cho rằng ông Riehl hoài nghi sự chính xác của ChatGPT, đồng thời ông lại hoàn toàn có khả năng kiểm chứng xem ChatGPT có... bịa đặt thông tin hay không, tòa án kết luận rằng vì ông Riehl không tin vào thông tin sai lệch nói trên, nên không có cơ sở để cho rằng đây là hành vi vu khống của ChatGPT với ông Mark Walter. Trước tòa, ông Riehl cũng có khẳng định rằng ông chắc chắn là thông tin nói trên là sai, và cho là ChatGPT tưởng tượng ra những thông tin “hư cấu”.

Thứ hai, tòa án xem xét hai điều kiện khác, đó là việc đăng tải nội dung bị cho là mang tính vu khống nói trên có cấu thành lỗi, và nếu có, thì đó có là lỗi cố ý gây hại cho nguyên đơn là ông Mark Walter hay không.

Rõ ràng là để kiện tội vu khống thì bên nguyên đơn cần chứng minh rằng bên bị đơn đã có lỗi đăng tải nội dung mang tính vu khống, điều đó có nghĩa là cần chứng minh rằng Công ty OpenAI đã không thực hiện “nghĩa vụ cẩn trọng một cách hợp lý”. Công ty OpenAI đưa ra lập luận rằng công ty này đã thực hiện mọi biện pháp kỹ thuật để tránh tình trạng ChatGPT bịa đặt thông tin, cũng như đã cảnh báo người dùng rằng ChatGPT có thể đưa ra những câu trả lời sai lệch.

Luật sư của ông Mark Walter lập luận rằng rõ ràng là có thể cho rằng OpenAI đã có lỗi cẩu thả, vì đưa ra cho công chúng một công cụ tạo ra các thông tin sai lệch, điều mà một người “cẩn trọng” sẽ không làm. Tòa án đã bác bỏ lập luận này của luật sư, vì cho rằng chỉ một sai lệch không đủ để kết luận rằng Công ty OpenAI đã vi phạm nghĩa vụ cẩn trọng. Vì thế, Công ty OpenAI đã không có lỗi khi ChatGPT tạo ra nội dung sai, thiếu chính xác.

Đối với điều kiện liên quan tới hành vi “cố ý” gây hại, tòa án cho rằng ông Mark Walter cần phải chứng minh rằng thông tin bị cho là vu khống được tạo ra một cách cố ý để gây hại cho ông. Điều đó có nghĩa là cần phải có bằng chứng cho thấy Công ty OpenAI có ý thức chủ quan về thông tin sai lệch mà ChatGPT tạo ra. Tuy nhiên, các bằng chứng về nỗ lực của OpenAI để cảnh báo cho người dùng về nguy cơ thông tin sai lệch cũng như để hạn chế thông tin sai lệch loại bỏ khả năng này. Việc thông tin sai về ông Mark Walter không đủ để coi là bằng chứng rõ ràng và thuyết phục về việc tồn tại hành vi cố ý gây hại. Cũng nên bổ sung rằng, ông Mark Walter có khẳng định rằng ông không phải chịu thiệt hại gì từ thông tin sai lệch nói trên của ChatGPT, cũng như chưa từng đề nghị OpenAI sửa chữa hoặc rút lại thông tin sai lệch.

Vụ kiện nói trên cho thấy để kiện OpenAI về hành vi ChatGPT đưa tin sai lệch không phải là chuyện dễ dàng. Rõ ràng là công ty này luôn cảnh báo về nguy cơ thông tin giả, thiếu chính xác mà ChatGPT đưa ra, và điều đó đủ để cho công ty này tránh phải chịu trách nhiệm khi ChatGPT trả lời sai lệch.

Liệu các quy định pháp luật hiện hành có còn hợp lý khi áp dụng cho trí tuệ nhân tạo? Đó là câu hỏi đặt ra cho các nhà làm luật. Trong khi chưa có cơ sở pháp lý cụ thể áp dụng riêng cho trí tuệ nhân tạo, thì người dùng cần phải nâng cao ý thức để biết sử dụng ChatGPT đúng và đủ.

(1) https://fingfx.thomsonreuters.com/gfx/legaldocs/egvblxokkvq/Walters%20v%20OpenAI%20-%20order.pdf

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Tin liên quan

Có thể bạn quan tâm

Tin mới