(KTSG) - Một mô típ thường thấy trong các truyện khoa học viễn tưởng là cảnh những người cực đoan chống lại công nghệ bằng bạo lực, kể cả giết người như trong bộ phim Terminator, nhân vật Sarah Connor trong nỗ lực ngăn chặn Ngày phán xét, đã tìm đến tận nhà để ám sát Miles Dyson, cha đẻ mạng lưới AI Skynet, dẫn đến ngày tận thế sau này.
- Luật trí tuệ nhân tạo đang đối mặt với những thách thức nào?
- Kỷ nguyên trí tuệ nhân tạo: Năng suất và ‘điểm kỳ dị’

Trong đời thực ngày nay cũng đang diễn ra các vụ bạo lực nhắm đến một số nhân vật nổi tiếng trong giới công nghệ y như phim, truyện. Vào ngày 10-4-2026, một thanh niên 20 tuổi ném bom xăng vào nhà của Sam Altman, người đứng đầu hãng phát triển các công cụ AI nổi tiếng OpenAI.
Hai ngày sau cảnh sát cũng bắt giữ hai thanh niên khác do tội ngồi trên xe bắn vào ngôi nhà nói trên trước khi bỏ chạy. Trong một vụ khác cách đó hàng ngàn ki lô mét, một tay súng bắn 13 phát vào nhà ủy viên hội đồng thành phố Ron Gibson, người vừa bỏ phiếu tán thành dự án xây một trung tâm dữ liệu mặc dù bị cư dân phản đối. Tay súng để lại một tấm bìa ghi “KHÔNG [XÂY] TRUNG TÂM DỮ LIỆU” dưới tấm thảm trước nhà.
Chưa đến mức dùng bạo lực nhưng cảm nhận của nhiều người bình thường về công nghệ nói chung và AI nói riêng là đang xấu dần đi, thể hiện qua những cuộc biểu tình phản đối việc xây dựng trung tâm dữ liệu tại địa phương, phát biểu của nhiều chính trị gia, các bài viết của nhiều chuyên gia trong nhiều lĩnh vực và nhất là thái độ của nhân viên tại các nơi ứng dụng AI nhằm thay thế họ.
Trước đây, nhìn chung cảm nhận của người dùng đối với các thành tựu công nghệ là tích cực; họ đón nhận TV màu, máy CD nghe nhạc, máy DVD xem phim, kể cả điện thoại di động một cách nhiệt tình.
Thế nhưng khi được YouGov khảo sát vào tháng 12-2025, đến 77% người Mỹ tin rằng AI là mối đe dọa cho loài người. Trước mắt AI có thể lấy đi việc làm, tạo ra phim ảnh giả nằm ngoài tầm kiểm soát, là công cụ hỗ trợ tích cực kẻ gian lừa đảo mọi người. Mặc dù đa số có sử dụng AI nhưng chỉ 5% người dùng nói họ tin tưởng AI.
Trong khi đó ai cũng có cảm giác AI và các hãng công nghệ đang tung các sản phẩm AI ra thị trường hoàn toàn nằm ngoài tầm ảnh hưởng của họ, không chịu trách nhiệm giải trình trước các sự cố.
Chẳng hạn không có cơ quan quản lý nào có thể yêu cầu các công ty AI triệu hồi một sản phẩm bị lỗi nhưng tung tin sai. Đã có nhiều vụ các gia đình có con em tự sát vì nghe theo lời tư vấn của ChatGPT chỉ biết kiện OpenAI ra tòa nhưng chưa biết kết cục sẽ như thế nào.
Theo tờ New York Times, giả sử các công ty công nghệ có sản phẩm như ChatGPT mà bán thực phẩm, thuốc men hay xe cộ hay bất kỳ món hàng tiêu dùng nào khác, mỗi khi có sự cố như thế, ắt hẳn cơ quan quản lý sẽ buộc họ thu hồi sản phẩm trong khi các nhà điều tra sẽ xem xét sự việc.
Đằng này ChatGPT vẫn đang tư vấn cho hơn 1 triệu người mỗi tuần là những người biểu lộ dấu hiệu có ý định tự tử, không hề có chuyện OpenAI tạm ngưng ChatGPT dù chỉ 1 ngày để giải quyết mối nguy tư vấn sai, tư vấn bậy.
Một ngoại lệ trong giới AI là hãng Anthropic, đối thủ cạnh tranh của OpenAI. Hãng này yêu cầu Bộ Quốc phòng Mỹ đồng ý hai điều kiện mới chịu cung cấp sản phẩm AI cho lính Mỹ sử dụng: không được sử dụng AI để theo dõi đại trà người dân; không để AI toàn quyền kiểm soát vũ khí tự động mà phải có sự can thiệp của con người.
Bộ này phản bác hai yêu cầu này với lý do họ sử dụng sản phẩm của Anthropic theo đúng khuôn khổ của luật lệ hiện hành là đủ.
Mới đây Anthropic tuyên bố sẽ không giới thiệu rộng rãi sản phẩm AI mới nhất của họ - Claude Mythos mà chỉ giới hạn trong khoảng 40 doanh nghiệp công nghệ vì sản phẩm này quá mạnh, có thể phát hiện hàng ngàn lỗi, các lỗ hổng trong các hệ điều hành máy móc hiện nay.
Nếu rơi vào tay kẻ xấu, chúng có thể qua đó đột nhập vào bất kỳ hệ thống nào và chiếm quyền kiểm soát, kể cả ngân hàng, nhà máy điện, hệ thống điều khiển đèn giao thông… Claude Mythos nguy hiểm đến nỗi Bộ trưởng Tài chính Mỹ Scott Bessent phải họp khẩn với lãnh đạo các ngân hàng lớn của Mỹ để cảnh báo nguy cơ tấn công mạng một khi Claude Mythos ra mắt rộng rãi.
Thế nhưng cuộc đua giành vị trí hàng đầu của các công ty AI trên thế giới đẩy các công ty này vào chỗ bất chấp các rủi ro hay mối nguy có thể chính họ cũng thấy. Bài viết trên tờ New York Times kết luận: bom xăng rõ ràng là phương thức sai lầm để gửi thông điệp tới giới công nghệ nhưng lãnh đạo công nghệ dù sao cũng nên lắng nghe những thông điệp như thế.






