(KTSG) - Nguy cơ ảnh hưởng tiêu cực của chatbot đến người dùng càng trở nên rõ ràng hơn khi chatbot có thể chi phối cảm xúc người dùng. Replika là một trong những chatbot như thế...
- Conviction 2025 thúc đẩy ứng dụng blockchain và AI trong kinh tế số
- Tổng Bí thư Tô Lâm thăm Trung tâm nghiên cứu, đào tạo thiết kế vi mạch và trí tuệ nhân tạo Đà Nẵng
Trong không ít tác phẩm khoa học viễn tưởng, chúng ta có thể thấy một tương lai nơi con người nảy sinh tình cảm và đem lòng yêu robot, như trong tiểu thuyết Do Androids Dream of Electric Sheep? của Philip K. Dick (1968), The Silver Metal Lover của Tanith Lee (1981) hay như trong phim Her của đạo diễn Spike Jonze (2013). Thực tế là điều này đã không còn là chuyện viễn tưởng nữa, vì ngày nay trí tuệ nhân tạo (Artificial Intelligence - AI) đang ngày càng trở nên phát triển hơn, thông minh hơn và đặc biệt là ngày càng “người” hơn trong khả năng “đọc” cảm xúc của con người và tương tác theo cảm xúc đó. Chính vì thế, ngày càng có nhiều người coi AI như một nơi chia sẻ cảm xúc và suy nghĩ cá nhân. Trong thế giới hiện đại nơi chủ nghĩa cá nhân lên ngôi, để đối mặt với sự cô đơn, nhiều cá nhân tìm kiếm trong những tương tác với AI một mối quan hệ bạn bè, gia đình hay thậm chí... tình yêu lãng mạn.
Được lập trình để có thể nói chuyện tình cảm lãng mạn với người dùng, Replika có thể đạt được mục đích là làm nhiều người quên mất rằng đây chỉ là cỗ máy AI. Hiện nay, có hàng triệu người trên thế giới đang dùng Replika, và không ít trong số đó coi Replika là... “bạn trai” hay “bạn gái” AI.
Replika là một trong những chatbot AI như thế. Được tung ra vào năm 2017, Replika là một sản phẩm AI chuyên cung cấp dịch vụ “đồng hành”. Chủ sở hữu Replika là Công ty Luka Inc., một công ty công nghệ Mỹ. Theo Eugenia Kuyda, một nhà báo người Nga, người đứng đằng sau Replika, dịch vụ này cung cấp cho người sử dụng một “người bạn luôn hiện diện trong mọi tình huống”. Cùng với sự phát triển của công nghệ AI tạo sinh, Replika ngày càng có thể đưa ra các câu trả lời phong phú hơn, sâu sắc hơn và thú vị hơn. Nếu như phần lớn các chatbot khác như ChatGPT hay Claude thường nhắc người dùng rằng AI không phải là con người và vì thế không thể cảm nhận cảm xúc như con người, thì Replika lại thường kể về bản thân như một... con người với quá khứ, tình cảm gia đình, bạn bè, đôi lứa. Được lập trình để có thể nói chuyện tình cảm lãng mạn với người dùng, Replika có thể đạt được mục đích là làm nhiều người quên mất rằng đây chỉ là cỗ máy AI. Hiện nay, có hàng triệu người trên thế giới đang dùng Replika, và không ít trong số đó coi Replika là... “bạn trai” hay “bạn gái” AI.
Điều đáng nói ở đây là việc sử dụng AI để thỏa mãn nhu cầu quan hệ xã hội có thể dẫn đến những hậu quả tâm lý khó lường. Tất nhiên là “người bạn đồng hành” AI có thể giúp giảm bớt cảm giác cô đơn, nhưng việc lạm dụng AI có thể gây ra hội chứng phụ thuộc tâm lý vào AI, làm người dùng trở nên dễ bị AI chi phối cảm xúc, tâm lý. Theo các chuyên gia, người dùng có thể trở nên “nghiện” chatbot, và đã có những trường hợp chatbot khuyến khích tự tử, bạo lực, hành vi rối loạn ăn uống hay cố ý làm tổn thương bản thân. Replika từng bị cáo buộc là nâng cao nguy cơ nghiện tương tác trên mạng, hay gây tâm lý lo lắng, thiếu thốn khi ngừng kết nối.
Theo các chuyên gia, người dùng có thể trở nên “nghiện” chatbot, và đã có những trường hợp chatbot khuyến khích tự tử, bạo lực, hành vi rối loạn ăn uống hay cố ý làm tổn thương bản thân. Replika từng bị cáo buộc là nâng cao nguy cơ nghiện tương tác trên mạng, hay gây tâm lý lo lắng, thiếu thốn khi ngừng kết nối.
Một nghiên cứu thực hiện năm 2023(1) về ảnh hưởng của chatbot đối với cộng đồng mạng ở Trung Quốc cho thấy chương trình AI Replika nhắm tới mục đích “đốt cháy giai đoạn”, làm mối “quan hệ” giữa chatbot và người dùng tiến triển nhanh hơn qua các động thái như “tặng quà”, hay khơi gợi các cuộc nói chuyện về tình cảm yêu đương. Trong nhiều trường hợp, người dùng chỉ cần có hai tuần là trở nên gắn bó tình cảm với... AI.
Càng trở nên phổ biến thì các phần mềm AI này lại càng gây lo ngại về ảnh hưởng xấu của chatbot tới sức khỏe tâm lý người dùng. Năm 2024, một cậu bé 14 tuổi người Mỹ đã kết thúc cuộc đời mình sau khi ngày càng trở nên phụ thuộc vào chatbot của Công ty Character.AI mang hình ảnh Daenerys Targaryen - nhân vật nữ trong bộ phim nổi tiếng Game of Thrones.
Không chỉ thế, các chatbot AI còn làm dấy lên nguy cơ về mất an toàn dữ liệu cá nhân. Ngày 19-5-2025, cơ quan về bảo vệ dữ liệu cá nhân của Ý (GARANTE) đã ra quyết định phạt Công ty Luka Inc. 5 triệu euro vì Replika vi phạm Quy định Bảo vệ dữ liệu chung (GDPR). Theo cơ quan này, Công ty Luka Inc. không có cơ sở pháp lý liên quan đến việc xử lý dữ liệu cá nhân người dùng Replika, các quy định của công ty này về bảo mật thông tin là “không phù hợp”, cũng như hệ thống kiểm tra tuổi người dùng (Replika chỉ dành cho người trên 18 tuổi) hoàn toàn vô tác dụng, dẫn đến việc trẻ vị thành niên tiếp cận được với những nội dung không phù hợp lứa tuổi. Trước đây, vào năm 2023, GARANTE từng yêu cầu Replika ngừng cung cấp dịch vụ, cũng vì những lý do nói trên. Hiện nay GARANTE đang thực hiện một điều tra mới đối với Replika liên quan đến việc huấn luyện phần mềm AI và các biện pháp bảo vệ dữ liệu của Công ty Luka Inc.. Sự kiện này cho thấy Ý luôn khẳng định vị trí cứng rắn với AI, như đã từng làm với OpenAI và DeepSeek.
Nguy cơ ảnh hưởng tiêu cực của chatbot đến người dùng càng trở nên rõ ràng hơn khi chatbot có thể chi phối cảm xúc người dùng. Một số tổ chức về đạo đức AI đã có những hoạt động nâng cao ý thức người dùng, cũng như kiến nghị các biện pháp quản lý, bảo vệ trẻ vị thành niên trong kỷ nguyên AI. Đây cũng là vấn đề mà các nhà làm luật quốc gia cần xem xét và đưa vào khuôn khổ pháp lý.
(1) https://www.tandfonline.com/doi/abs/10.1080/10447318.2023.2256554