(KTSG) - Cái làm nên sự khác biệt giữa con người và các loài vật khác chính là ngôn ngữ.
Nhờ ngôn ngữ con người xây dựng các nền văn minh, tạo ra các khái niệm trừu tượng được chia sẻ trong cộng đồng như đất nước, tiền bạc, tôn giáo, thậm chí các khái niệm hiện đại như doanh nghiệp, pháp nhân. Nay các AI tạo sinh như ChatGPT sản sinh ngôn ngữ nhoay nhoáy, hơn cả một người lợi khẩu nhất, lấy đi sự độc quyền của con người trong lĩnh vực này. Đó chính là lý do đằng sau nỗi lo AI gây họa.
Thử hỏi ChatGPT của OpenAI và Bard của Google cùng một bài toán: Vừa gà vừa chó, 36 con, bó lại cho tròn, vừa chẵn 100 chân. Hỏi có bao nhiêu gà, bao nhiêu chó? Nếu chúng cung cấp ngay đáp số, chúng ta sẽ nghĩ đây là máy, chúng tính toán như chiếc máy tính để có lời giải. Đằng này cả ChatGPT lẫn Bard đều rề rà giải thích, kiểu như gọi số gà là a, số chó là b... buộc chúng ta phải nghĩ chúng “thông minh”, chúng biết lập luận như người. Thử hỏi cùng bài toán đó nhưng bỏ đi yếu tố 36 con, nếu chúng vẫn lập luận như cũ rồi cho ra cùng đáp số, chúng ta sẽ suy đoán đây là các mô hình quét hết mọi văn bản trên mạng nên quen thuộc với các bài toán loại này, chúng chỉ lặp lại như con vẹt.
Thế nhưng trên thực tế, ChatGPT nói “thông tin về tổng số con không được cung cấp trong câu hỏi của bạn. Nếu bạn có thông tin này hãy cung cấp để chúng ta có thể giải bài toán”. Trả lời như thế biểu sao không xem nó là “trí tuệ nhân tạo” cho được.
Kể từ khi OpenAI tung ChatGPT ra cho công chúng vào tháng 11-2022, chỉ trong vòng năm ngày đã có hơn 1 triệu người đăng ký dùng nó. Trong vòng hai tháng, ChatGPT có hơn 100 triệu người dùng - một con số nay đã tăng gấp đôi. Hiện nay ChatGPT như một ứng dụng miễn phí trên điện thoại di động đã có thể đối đáp với con người bằng đủ loại ngôn ngữ, kể cả tiếng Việt với một giọng nói khề khà, đôi lúc cố tình ậm ừ như người thật. Phiên bản có trả phí, 20 đô la mỗi tháng giúp người dùng có thể tạo ra các GPT chuyên biệt cho riêng mình. Vì người dùng có thể cung cấp dữ liệu cho nó, yêu cầu nó trả lời chỉ dùng dữ liệu này thôi nên sẽ có các GPT chuyên về luật, y tế, giáo dục, văn học, nghệ thuật, ngày càng chuyên nghiệp, hạn chế sai sót.
Có lẽ nhận định của PEN America về mối nguy của AI gợi nhiều suy nghĩ hơn cả. Tổ chức này phát biểu khi nói về rủi ro lan truyền tin giả do AI gây ra: “Có nguy cơ con người đánh mất niềm tin vào chính ngôn ngữ và vì thế cũng đánh mất niềm tin giữa người với người”.
Sau OpenAI, các tập đoàn công nghệ lớn đều nhảy vào cuộc đua AI tạo sinh như Microsoft tích hợp mô hình của OpenAI vào bộ máy tìm kiếm Bing của mình; Google có Bard; Meta có LLaMA hay Anthropic có Claude chẳng thua kém ChatGPT bao nhiêu. Ngay cả Apple kín tiếng cũng hé lộ kế hoạch nâng cấp trợ lý Siri thành chatbot thông minh vào năm tới. Mô hình AI tạo sinh mới nhất, mạnh nhất của Google là Gemini.
Trong một video biểu diễn khả năng của Gemini, người hỏi ra dấu bằng tay các động tác, Gemini nói ngay, tôi biết bạn đang làm gì, bạn đang chơi trò chơi oẳn tù tì. Khi người hỏi đặt đồng xu và một cái bánh cookie lên bàn, Gemini miêu tả, cả hai đều hình tròn, dẹt; thay đồng xu bằng trái cam, Gemini đổi cách miêu tả, cả hai đều là thức ăn nhưng cam thì có lợi cho sức khỏe hơn bánh. Tuy nhiên sau đó báo chí tỏ ra nghi ngờ độ chân thực của video này vì Gemini quá thông minh!
Với ngôn ngữ, việc đầu tiên khi một người tiếp nhận một thông điệp thông qua ngôn ngữ giao tiếp là xét đoán mức độ chính xác, đáng tin cậy của thông điệp. Với AI tạo sinh, chuyện tiếp nhận như thế nào biến đổi từ người này sang người khác. Satya Nadella, CEO của Microsoft yêu cầu GPT-4 dịch thơ của nhà thơ người Ba Tư sống ở thế kỷ 13 từ tiếng Urdu sang tiếng Anh, ông ngạc nhiên và hoàn toàn hài lòng về chất lượng bản dịch.
Tôi thử hỏi ChatGPT, các tác phẩm chính của nhà văn Nguyễn Ngọc Tư, nó bịa ra các tác phẩm “Người lạ thân quen”, “Những chiếc lá cuối cùng”, “Đãng trí” đi kèm là các câu tóm tắt nghe như thật. Bard của Google khá hơn nhiều khi trả lời chính xác. Hỏi ChatGPT Số đỏ là tác phẩm của nhà văn nào?” nó cũng bịa ra nhà văn Nguyễn Hồng, hết biết. Chính vì thế mặc dù thử nghiệm với ChatGPT nhiều lần trong năm rồi, chưa bao giờ người viết dám sử dụng nó cho công việc. Gần đây nhất, viết bài về các chính sách ưu đãi cho xe điện, muốn hỏi nó Việt Nam có tổng cộng bao nhiêu ô tô, bao nhiêu xe gắn máy mà chỉ hỏi cho biết để kiểm tra độ chính xác còn thông tin phải lấy từ nguồn đáng tin cậy.
***
Có thể tạm kết luận AI tạo sinh như một người lợi khẩu, biết nhiều chuyện, ăn nói trôi chảy, kiến thức rộng nhưng chưa đáng tin. Trong bối cảnh đó, người thận trọng sẽ chưa vội tung ra sản phẩm còn khiếm khuyết như thế ra công chúng. Điều đáng ngạc nhiên trong năm 2023 là một mặt các công ty công nghệ lớn liên tục đưa ra các cảnh báo về mối nguy AI có thể gây ra cho loài người nhưng mặt khác vẫn chạy đua hết tốc lực để tung ra các mô hình AI mới, dành thế thượng phong.
Nhớ lại cách đây không lâu, một kỹ sư của Google sau khi tiếp xúc dài ngày với một mô hình ngôn ngữ biết trò chuyện của Google đã tuyên bố mô hình LaMDA này có trí khôn, có cảm xúc bằng một đứa trẻ, gây ầm ĩ mấy tuần. Lúc đó Google đã sa thải anh này, đồng thời khẳng định họ luôn thận trọng trước các sản phẩm AI. Thế nhưng ngay sau khi OpenAI gây sốt với ChatGPT, Google bỏ hết mọi sự thận trọng này để tìm cách đưa Bard ra cho công chúng.
Khi biết Microsoft mời báo chí đến xem trình diễn ứng dụng trò chuyện Bing vào ngày 7-2-2023 thì ngày 6-2 Google tuyên bố sẽ tung ra Bard. Sáng ngày 8-2, một ngày sau khi Microsoft công bố Bing, giá cổ phiếu của Microsoft tăng 5%. Nhưng đồng thời mọi người phát hiện một sai sót trên tuyên bố về Bard của Google; nó cung cấp sai kiến thức. Mạng xã hội dậy sóng; giá cổ phiếu Google sụt mất 8%, tương đương 100 tỉ đô la vốn hóa bị bay hơi.
Đến nay tình tiết vụ xung đột ở OpenAI khi CEO Sam Altman bị Hội đồng quản trị sa thải rồi chỉ vài ngày sau được mời quay trở lại đã dần rõ nét. Các thành viên Hội đồng quản trị OpenAI phê phán Altman phát triển ChatGPT quá vội vàng, việc tung nó ra cho công chúng đã khởi xướng cuộc đua AI giữa các tập đoàn công nghệ lớn mà hệ quả ra sao chưa ai biết. Tuy nhiên đúng như nhận xét của nhiều người, cuối cùng tiền bạc đã thắng, phe phi lợi nhuận phải ra đi.
Ở đây phải thấy một nguy cơ lớn từ vụ xung đột này: chỉ trong cùng một công ty, quan điểm về sự lợi hại của AI đã quá khác biệt, chỉ trong một nhóm nhỏ mà chưa giải quyết được mâu thuẫn khi lợi ích của một tổ chức đi ngược với lợi ích của cộng đồng thì trông mong gì các luật lệ, các quy định ràng buộc sự phát triển của AI. Ví dụ chuyện sử dụng súng đạn, chuyện phá thai, chuyện ủng hộ hay lên án Israel hủy diệt dải Gaza đang gây chia rẽ nước Mỹ, liệu có AI nào không chịu thiên kiến của loài người để cung cấp giải pháp khách quan được cả hai phe chấp nhận? Hay ngược lại, với vũ khí ngôn ngữ cộng với khả năng làm ra hình ảnh, video, âm thanh, AI sẽ tô đậm sự xung đột đó?
***
Năm 2023 các tình tiết ồn ào chung quanh AI nay nhìn lại trông giống như kịch bản một bộ phim khoa học giả tưởng. Hiện ngoài xã hội đã nảy sinh các phong trào đối chọi nhau liên quan đến AI. Phong trào Effective Accelerationism (thường viết tắt thành e/acc) chủ trương phát triển AI và các công nghệ khác nhanh bằng mọi giá, không e dè, không đặt ra rào cản quản lý. Ngược lại có phong trào Effective Altruism với quan điểm AI mạnh, không kiểm soát sẽ hủy diệt loài người. Chính vì sự chia rẽ này, nếu đọc trên báo chí chúng ta sẽ bị chìm ngập trong các luồng dư luận chỏi nhau khi các bên thi nhau thuyết phục mọi người tin vào luận thuyết của mình.
Trong khi đó, có một sự thật chưa được chú ý rộng rãi: ngôn ngữ là của loài người, AI có vận dụng ngôn ngữ cũng là do bắt chước hay chiếm đoạt từ con người. Đây là nguồn cơn đằng sau các tranh chấp, các vụ kiện giữa nhà văn, báo chí, họa sĩ kiện các công ty AI đã lấy tác phẩm của họ làm nguyên liệu huấn luyện trí khôn cho các mô hình ngôn ngữ.
Chẳng hạn vào tháng 9-2023, Hiệp hội các tác giả cùng một nhóm các nhà văn nổi tiếng đã kiện tập thể OpenAI với cáo buộc sản phẩm ChatGPT của họ vi phạm bản quyền khi đôi lúc trả lời các câu hỏi về các tác phẩm cụ thể, đã biết trích nguyên văn nhiều đoạn, chứng tỏ chúng đã quét các tác phẩm này vào bộ nhớ. (Nay ChatGPT đã được điều chỉnh để khôn khéo trả lời, tôi không thể cung cấp đoạn trích nguyên văn từ các văn bản có bản quyền).
Mối nguy ảnh giả do AI tạo ra bị trộn lẫn với ảnh thật, gây nghi ngờ “ảnh thật có thể là đồ giả” hay “ảnh giả chính là thật” đã là một hiện thực. Các kho ảnh lớn, nơi các nhà nhiếp ảnh đưa ảnh họ chụp lên để người dùng vào chọn, mua về sử dụng cho nhiều mục đích khác nhau nay đã có rất nhiều ảnh do AI tạo dựng. Đa phần có ghi rõ tác giả là AI nhưng cũng có ảnh không ghi; còn các trường hợp mua ảnh AI tạo dựng nhưng xóa dòng chữ này trước khi dùng là khá phổ biến trên mạng xã hội và các trang web.
Có lẽ nhận định của PEN America về mối nguy của AI gợi nhiều suy nghĩ hơn cả. Tổ chức này phát biểu khi nói về rủi ro lan truyền tin giả do AI gây ra: “Có nguy cơ con người đánh mất niềm tin vào chính ngôn ngữ và vì thế cũng đánh mất niềm tin giữa người với người”.