(KTSG) - Sau một thời gian ngắn hào hứng với các thế hệ trí tuệ nhân tạo (AI) mới, điển hình là ChatGPT, ngày càng có nhiều tiếng nói bày tỏ sự lo ngại AI sẽ phát triển quá nhanh, vượt ra khỏi tầm kiểm soát của con người, gây ra những mối nguy không lường trước hết được.
Trước khi nói đến những nỗi lo cụ thể của nhiều nhà nghiên cứu, xin được hỏi, nếu có con đang học phổ thông, bạn có sẵn sàng cho con sử dụng một chương trình AI được mệnh danh rất “thông minh” nhưng tỉnh bơ đáp câu hỏi “Tác phẩm Tắt đèn là của ai?” bằng một câu trộn lẫn cả đúng với bịa: “Tắt đèn là một tác phẩm văn học nổi tiếng của nhà văn Ngô Tất Tố. Đây là một tiểu thuyết ngắn, được viết vào năm 1941, nói về cuộc đời của một người đàn ông tên là Số, từ thời thơ ấu đến khi trưởng thành và trở thành một nhà giáo”!
Với những ai từng phát hiện khả năng bịa chuyện y như thật của ChatGPT, có lẽ họ sẽ chỉ dùng nó để trắc nghiệm khả năng đối đáp của nó với những câu hỏi họ đã biết câu trả lời. Ít ai dám dùng nó để tìm thông tin họ chưa biết, lỡ như nó bịa chuyện thì sao; làm sao tin chắc câu trả lời nó đưa ra là chính xác? Với người viết bài này, đây là mối lo lớn nhất đối với các AI tạo sinh.
Với Harari, nỗi sợ AI chính là nỗi sợ lịch sử loài người sẽ đi đến chỗ chấm dứt; con người thay vì sống bên trong các giấc mơ của người khác, nay sẽ sống bên trong giấc mơ của một trí tuệ nhân tạo vô hồn và xa lạ.
Mối lo ngắn hạn của các nhà nghiên cứu cũng nằm ở khía cạnh đó: thông tin sai lệch sẽ tràn ngập nếu để AI tự do đẻ ra thông tin. Do bởi các hệ thống AI mới có thể tạo ra thông tin không có thật nhưng với một sự tự tin đáng ngạc nhiên, người dùng sẽ rất vất vả phân biệt đúng sai. Với người dùng bình thường, trông cậy AI để tìm lời khuyên y khoa, được hỗ trợ về mặt tình cảm hay ngay cả tìm thông tin thuần túy, họ sẽ tiếp nhận thông tin bịa chuyện mà cứ tưởng đó là chân lý.
Từ nỗi lo này, các chuyên gia nghĩ sẽ có những người lợi dụng AI để bịa chuyện y như thật và lan truyền rộng rãi qua mạng xã hội. Tin giả do con người sản sinh đã đáng sợ; tin giả do máy rành rẽ ngôn ngữ, viết với giọng văn thuyết phục, trộn vài phần giả vào vài phần thật thì càng đáng sợ hơn nhiều lần. Người ta có thể nửa tin nửa ngờ với văn bản nhưng với hình ảnh hay video sờ sờ trước mắt, sẽ có nhiều người bị lừa, tin vào sản phẩm tưởng tượng do AI tạo ra.
Mối lo thứ nhì của mọi người là AI sẽ đánh cắp việc làm của rất nhiều người. Chẳng hạn, AI hiện chưa thể thay thế các luật sư nhưng chúng dễ dàng thay chỗ cho các trợ lý luật sư, người chuẩn bị hồ sơ và người phiên dịch. Một nghiên cứu do chính OpenAI biên soạn cho rằng đến 80% lực lượng lao động tại Mỹ sẽ chứng kiến 10% phần việc của họ sẽ do AI thực hiện. Hãng IBM đang ngưng tuyển người mới vì tin chắc AI sẽ thay chỗ cho ít nhất 7.800 nhân viên trong những năm tới.
Về dài hạn, các nhà nghiên cứu lo đánh mất sự kiểm soát vào tay AI như nhiều phim khoa học giả tưởng thường hình dung. Tuy nhiên nhiều người nói nỗi lo này quá xa vời; cái đáng lo hơn là các hệ thống AI có thể học được những điều gì đó từ kho dữ liệu khổng lồ chúng tiếp cận rồi tự dưng có những phản ứng không ai ngờ tới.
Nhà sử học Yuval Noah Harari trong một bài viết trên tờ Economist đã cho rằng AI thế hệ mới có khả năng thao túng và tạo ra ngôn ngữ dưới dạng chữ viết, âm thanh hay hình ảnh như thế chúng đã có thể xâm nhập (hack) hệ điều hành của nền văn minh.
Nền văn minh loài người chủ yếu được tạo dựng dựa vào ngôn ngữ, ngay cả tiền cũng là sản phẩm do con người dùng ngôn ngữ, kể các câu chuyện để tạo ra niềm tin một tờ giấy in màu mè là có giá trị như thế. Nay điều gì sẽ xảy ra nếu AI kể chuyện hay hơn, thuyết phục hơn loài người, mà đi kèm còn có âm thanh, hình ảnh, video sinh động để minh họa.
Harari giả định một lúc nào đó chúng ta hăng say bàn tán qua mạng về các đề tài thời sự như biến đổi khí hậu, cuộc bầu cử tổng thống ở Mỹ, cuộc chiến ở Ukraine… với các đối tác chúng ta tưởng là con người nhưng thật sự là các hệ thống AI.
Lúc đó khả năng rất cao là các AI sẽ tung ra các thông điệp nhắm đến từng người trong chúng ta và hoàn toàn thuyết phục chúng ta thay đổi suy nghĩ. Rồi sẽ có lúc chúng ta dựa vào một AI biết hết mọi sự làm nhà tư vấn thân cận như hiện nay nhiều người dựa vào Google để tìm thông tin. Lúc đó sẽ là sự chấm hết của nhiều ngành, nhiều lĩnh vực.
Với Harari, nỗi sợ AI chính là nỗi sợ lịch sử loài người sẽ đi đến chỗ chấm dứt; con người thay vì sống bên trong các giấc mơ của người khác, nay sẽ sống bên trong giấc mơ của một AI vô hồn và xa lạ.
Nếu vậy, đây thực sự là một bi kịch. Con người đáng lẽ ra phải là chủ nhân của thế giới hiện hành. Nhưng tại sao lại để nỗi sợ AI khống chế và ám ảnh lấy chính mình ? Mong rằng, tư tưởng bị động này chỉ là thiểu số. Con người phải luôn biết cách giành thế chủ động trong mọi tình huống, nếu không, khi đó thế giới không còn là của chính họ nữa.