Thứ ba, 24/12/2024
27 C
Ho Chi Minh City

Chia sẻ thông tin cá nhân với chatbot có an toàn không?

Ngọc Thanh

Kinh tế Sài Gòn Online

Kinh tế Sài Gòn Online

(KTSG) - Có nhiều lý do để thận trọng khi chia sẻ thông tin tài chính và sức khỏe trong các cuộc trò chuyện với chatbot AI.

Luôn có nguy cơ thông tin bạn chia sẻ sẽ bị lộ theo một cách nào đó. DAVID PLUNKERT

Hãy tưởng tượng bạn dán các ghi chú của mình từ cuộc trao đổi với bác sĩ X quang vào một chatbot tích hợp trí tuệ nhân tạo (chatbot AI) và yêu cầu nó tóm tắt. Sau đó, một người lạ yêu cầu chính chatbot AI tạo sinh đó giải thích về những lo ngại bệnh ung thư của họ và một số cuộc trò chuyện được cho là riêng tư của bạn sẽ bị gửi tới người dùng đó như một phần của câu trả lời.

Ngày nay, mối quan ngại về khả năng vi phạm quyền riêng tư như vậy đang là quan tâm hàng đầu của nhiều người khi các chatbot AI tạo sinh ngày càng phổ biến. Câu hỏi lớn ở đây là: Việc chia sẻ thông tin cá nhân với những chatbot này có an toàn không?

Câu trả lời ngắn gọn là luôn có nguy cơ thông tin bạn chia sẻ sẽ bị lộ theo một cách nào đó nhưng cũng có nhiều phương thức nhằm hạn chế rủi ro.

Để hiểu những mối lo ngại, sẽ hữu ích khi chúng ta nghĩ về cách những công cụ đó được “đào tạo” - ban đầu chúng được cung cấp lượng thông tin khổng lồ từ Internet và các nguồn khác như thế nào, đồng thời có thể tiếp tục thu thập thông tin từ các tương tác của chúng với người dùng để khiến chúng thông minh hơn và chính xác hơn ra sao.

Do đó, khi bạn hỏi chatbot AI một câu hỏi, câu trả lời của nó phần nào dựa trên thông tin bao gồm các tài liệu có từ rất lâu trước khi có các quy tắc về quyền riêng tư và sử dụng dữ liệu Internet. Và thậm chí nguồn tài liệu mới hơn còn chứa đầy thông tin cá nhân của mọi người nằm rải rác trên các trang web.

Điều đó để lại rất nhiều cơ hội cho thông tin cá nhân được đưa vào các tài liệu đào tạo khác nhau của các chatbot AI tạo sinh. Thông tin có thể vô tình xuất hiện trong cuộc trò chuyện của người khác với chatbot, bị kẻ xấu cố tình tấn công hoặc tiết lộ thông qua những gợi ý/câu hỏi xảo quyệt.

Một vấn đề lớn là chưa có ai thực hiện kiểm tra độc lập xem dữ liệu đào tạo nào đang được sử dụng, ông Ramayya Krishnan, Chủ nhiệm Trung tâm Công nghệ và Xã hội Block và Trưởng khoa trường Cao đẳng Hệ thống Thông tin và Chính sách công Heinz tại Đại học Carnegie Mellon, bày tỏ lo ngại. Ông tiết lộ nhiều cuộc đột nhập hàng rào bảo vệ đã tìm thấy dữ liệu nhạy cảm trong các mô hình đào tạo chatbot.

Hơn nữa, theo vị giáo sư, khi một công cụ AI được triển khai, nó thường tiếp tục huấn luyện về cách tương tác của người dùng với nó, hấp thụ và lưu trữ bất kỳ thông tin nào họ cung cấp cho nó.

Trong một số trường hợp, nhân viên của các công ty công nghệ cũng đọc một số cuộc trò chuyện của người dùng với chatbot. Điều này được thực hiện một phần để nắm bắt và ngăn chặn hành vi không phù hợp, đồng thời giúp kiểm soát độ chính xác và chất lượng của các mô hình, cũng như để quyết định những hội thoại nào mà các công ty muốn AI sử dụng để đào tạo.

Các sự việc đáng chú ý

Đã có báo cáo về các trường hợp thông tin bí mật vô tình bị tiết lộ cho người dùng. Tháng 3 năm ngoái, OpenAI tiết lộ một lỗ hổng cho phép một số người dùng ChatGPT xem tiêu đề cuộc trò chuyện của những người dùng khác bằng công cụ này và cũng có thể tiết lộ vắn tắt dữ liệu liên quan đến thanh toán của một số người dùng, bao gồm địa chỉ e-mail và bốn số cuối của thẻ tín dụng - số thẻ cũng như ngày hết hạn của thẻ. Đó là kết quả của một lỗi trong một số phần mềm nguồn mở (có nghĩa là nó được cung cấp miễn phí cho mọi người xem, sửa đổi và triển khai) đã được sử dụng trong quá trình đào tạo công cụ này.

Chatbot cũng dễ bị tấn công có chủ ý. Ví dụ, một số nhà nghiên cứu gần đây đã tìm ra những cách dễ dàng nhằm vượt qua các rào chắn và đào bới thông tin cá nhân được thu thập bởi các mô hình ngôn ngữ lớn, bao gồm cả thư điện tử.

Lỗ hổng ChatGPT đã được khắc phục nhanh chóng nhưng các hệ thống phần mềm AI này rất phức tạp và được xây dựng dựa trên các thành phần phần mềm khác, một số trong đó là nguồn mở và chúng chứa các lỗ hổng có thể bị lợi dụng. Irina Raicu, Giám đốc chương trình đạo đức Internet tại Trung tâm Đạo đức ứng dụng Markkula tại Đại học Santa Clara, cho biết những lỗ hổng tương tự vốn có ở các mô hình ngôn ngữ lớn.

Những lo ngại về quyền riêng tư lớn đến mức một số công ty đã hạn chế hoặc cấm nhân viên sử dụng chatbot AI tại nơi làm việc. “Nếu các công ty lớn lo ngại về quyền riêng tư và họ không chắc chắn về điều gì đang xảy ra với dữ liệu của mình, điều đó nói lên rằng chúng ta nên thận trọng khi chia sẻ bất kỳ điều gì mang tính cá nhân”, Raicu nói.

Không có nhiều việc phải làm đối với những gì đã có trong các mô hình chatbot, “nhưng tại sao lại mạo hiểm để lộ thông tin cá nhân ra ngoài bằng cách nhập dữ liệu mới như thế vào mô hình?”, vị chuyên gia đặt vấn đề.

Những điều cần lưu ý

Người tạo chatbot đã thực hiện một số bước để bảo vệ quyền riêng tư của người dùng. Ví dụ, người dùng có thể tắt khả năng lưu trữ lịch sử trò chuyện vô thời hạn của ChatGPT thông qua nút tùy chọn rất dễ thấy trên trang chủ. Đây không phải là biện pháp bảo vệ hoàn hảo chống lại tin tặc khi cuộc trò chuyện của những người đã sử dụng lựa chọn này vẫn được lưu trữ trong vòng 30 ngày. Tuy nhiên, các trang web cũng khẳng định sẽ không dùng thông tin để đào tạo AI.

Bard (chatbot tích hợp AI của Google) yêu cầu người dùng đăng nhập vào Bard.Google.com, sau đó làm một số bước để xóa mọi hoạt động trò chuyện theo mặc định. Người dùng Bing có thể mở trang web chatbot, xem lịch sử tìm kiếm của họ ở bên phải trang, sau đó xóa những đoạn hội thoại mà họ muốn loại bỏ.

Nhưng các chuyên gia cho biết, cách tốt nhất để người tiêu dùng tự bảo vệ mình là tránh chia sẻ thông tin cá nhân với một công cụ AI tạo sinh và lưu ý những dấu hiệu cảnh báo nhất định khi trò chuyện với bất kỳ phần mềm AI nào.

Một số dấu hiệu cảnh báo bao gồm việc sử dụng chatbot không có thông báo về quyền riêng tư. “Điều này cho bạn biết rằng cơ chế quản lý cần thiết chưa hoàn thiện như mong đợi”, Dominique Shelton Leipzig, luật sư về quyền riêng tư và an ninh mạng tại Công ty Luật Mayer Brown nói.

Shelton Leipzig lưu ý người dùng nên dừng lại khi chatbot yêu cầu thông tin cá nhân hơn mức cần thiết. “Đôi khi để truy cập vào một tài khoản trực tuyến, bạn cần chia sẻ số tài khoản đó hoặc mật khẩu của mình và trả lời một số câu hỏi cá nhân và điều này không có gì lạ. Tuy nhiên, việc yêu cầu chia sẻ số an sinh xã hội của bạn là một điều gì đó khác thường”. Sẽ không khôn ngoan khi thảo luận bất cứ điều gì cá nhân với một chatbot mà bạn chưa từng nghe đến, vì toàn bộ hệ thống có thể bị điều hành bởi những kẻ xấu.

Raicu của Đại học Santa Clara cảnh báo không nên nhập các tình trạng sức khỏe hoặc thông tin tài chính cụ thể vào một chatbot dùng chung, vì hầu hết các công ty chatbot đều nêu rõ trong điều khoản dịch vụ của họ rằng nhân viên con người có thể đọc một số cuộc trò chuyện. “Có đáng để mạo hiểm thông tin của bạn bị lộ ra ngoài khi phản hồi mà AI tạo sinh trả lời có thể không chính xác không? Có lẽ là không”, Raicu nói.

Krishnan của Đại học Carnegie Mellon, trích dẫn nguy cơ bị tin tặc tấn công, cảnh báo mọi người nên suy nghĩ kỹ trước khi sử dụng một tính năng của Google Bard cho phép công cụ này đọc và xử lý tất cả email của bạn để nó hiểu được phong cách viết lách và giọng văn của riêng bạn.

Cuối cùng, những gì bạn nhập vào chatbot đòi hỏi việc tính toán phần thưởng so với rủi ro và mức độ thoải mái của mọi người sẽ khác nhau. Tuy nhiên, các chuyên gia cho rằng, ít nhất bạn nên kiểm tra kỹ các điều khoản dịch vụ và chính sách quyền riêng tư của chatbot để hiểu dữ liệu của bạn sẽ được sử dụng như thế nào.

May mắn thay, các công ty phát triển AI tạo sinh có uy tín đang thực hiện các bước để bảo vệ người dùng, dù vậy, luôn lưu ý trước khi chia sẻ thông tin nhạy cảm với chatbot, theo Shelton Leipzig.

Theo The Wall Street Journal

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Tin liên quan

Có thể bạn quan tâm

Tin mới