Thứ ba, 5/11/2024
35.6 C
Ho Chi Minh City

Samsung dự báo lợi nhuận giảm 96% do chip nhớ ế ẩm

Lê Linh

Kinh tế Sài Gòn Online

Kinh tế Sài Gòn Online

(KTSG Online) – Cơn sốt đầu tư trí tuệ nhân tạo (AI) được kỳ vọng thúc đẩy tăng trưởng ở lĩnh vực chip nhớ, nhưng hiện tại, điều đó chưa xảy ra. Bằng chứng rõ ràng nhất là Samsung Electronics dự báo lợi nhuận giảm 96% trong quí 2, một dấu hiệu cho thấy nhà sản xuất chip nhớ hàng đầu thế giới chưa thể tận dụng nhu cầu từ lĩnh vực AI.

Lợi nhuận của Samsung dự kiến giảm đến 96% trong quí 2 do mảng chip nhớ vẫn chưa phục hồi. Ảnh: Getty

Chip nhớ đóng vai trò thiết yếu để vận hành các công cụ AI như ChatGPT của OpenAI (Mỹ), có thể đưa ra các câu trả lời tự nhiên và nhuần nhuyễn theo mệnh lệnh của người dùng. Kết hợp với các con chip đồ họa (GPU) được sản xuất bởi các công ty như Nvidia, chip nhớ giúp tăng tốc thời gian tính toán, vì vậy, chúng là mảnh ghép quan trọng để xây dựng các ứng dụng AI phức tạp và xử lý nhanh hơn.

Tuy nhiên, cho đến nay, cuộc chạy đua phát triển các dịch vụ AI tạo sinh vẫn chưa đủ để khỏa lấp cơn suy thoái công nghệ rộng lớn hơn, vốn làm giảm doanh số chip bán dẫn, bao gồm cả chip nhớ.

Hôm 7-7, Samsung dự báo ​​lợi nhuận hoạt động trong quí 2 chỉ đạt 600 tỉ won, tương đương 458 triệu đô la, giảm 96% so với con số 14,1 nghìn tỉ won của cùng kỳ năm trước. Doanh thu của hãng trong quí 2 cũng được dự báo giảm 22% xuống còn 60 nghìn tỉ won.

Mức giảm doanh thu và lợi nhuận mạnh nhất diễn ra ở mảng chip nhớ. Các nhà phân tích ước tính mảng chip nhớ của Samsung sẽ ghi nhận khoản lỗ khoảng 3-4 nghìn tỉ won trong quí 2.

SK Hynix, nhà sản xuất chip nhớ lớn thứ hai của Hàn Quốc, dự kiến báo lỗ hoạt động 2,8 nghìn tỉ won trong quí 2, với doanh thu giảm 53% so với cùng kỳ năm ngoái, xuống còn 6 nghìn tỉ won, theo FactSet.

Samsung và SK Hynix sẽ công bố thu nhập đầy đủ của họ vào cuối tháng này.

Trong cuộc họp báo thảo luận kết quả kinh doanh tuần trước, Sanjay Mehrotra, CEO của Micron Technology, nhà sản xuất chip nhớ lớn nhất của Mỹ, cho biết các công cụ AI tạo sinh ChatGPT đã thúc đẩy nhu cầu chip nhớ và công suất lưu trữ cho máy chủ AI lên mức cao hơn dự kiến trong quí gần đây nhất. Nhưng trong quí kết thúc vào ngày 1-6, Micron báo cáo khoản lỗ ròng 1,9 tỉ đô la và doanh thu giảm 57% so với cùng kỳ năm ngoái

Tổ chức Thống kê thương mại bán dẫn thế giới (WSTS) dự báo, trong năm nay, doanh thu toàn cầu cho tất cả các loại chip giảm khoảng 10%, xuống còn 515 tỉ đô la theo. Riêng hạng mục chip nhớ có thể chứng kiến mức sụt giảm doanh thu tồi tệ nhất trong số các loại chip chính, với doanh thu dự kiến giảm 35%, xuống còn 84 tỉ đô la.

Giá chip nhớ bắt đầu giảm mạnh từ nửa cuối năm ngoái và tiếp tục trượt dốc trong năm nay do nguồn cung dư thừa. Trong quí 2, giá của hai chip nhớ chính là DRAM và NAND flash giảm theo quí lần lượt là 21% và 13%, theo ước tính của hãng nghiên cứu Bernstein Research.

Lạm phát và những bất ổn kinh tế vĩ mô đã khiến người tiêu dùng và doanh nghiệp giảm mạnh chi tiêu cho điện thoại thông minh, máy tính cá nhân và máy chủ, những lĩnh vực sử dụng nhiều chip nhớ nhất.

Nhưng triển vọng của chip nhớ sẽ tươi sáng hơn trong thời gian tới. AI sẽ hướng doanh số bán hàng nhiều hơn đến các loại chip nhớ thế hệ tiếp theo, và mang lại nhiều lợi nhuận hơn cho nhà sản xuất. Các lãnh đạo trong ngành cho biết, xu hướng giảm doanh số của chip nhớ hiện nay có thể sớm kết thúc, khi khách hàng bắt đầu mua trở lại sau một thời gian điều chỉnh hàng tồn kho và cắt giảm sản xuất và đầu tư.

Samsung, SK Hynix và Micron đều đã ra mắt các chip DRAM thế hệ mới, được nhắm mục tiêu vào các hệ thống AI, được gọi là “bộ nhớ băng thông cao” (HBM). Cấu trúc của HBM bao gồm nhiều lớp DRAM xếp chồng lên nhau. HBM có thể đóng gói thành một đơn vị sản phẩm với các GPU do Nvidia và các công ty khác sản xuất. Điều đó cho phép một lượng lớn dữ liệu di chuyển giữa bộ nhớ và bộ xử lý cùng một lúc. Thời gian để dữ liệu di chuyển giữa hai loại chip này cũng giảm, giúp cải thiện tốc độ và hiệu quả tính toán.

Theo SemiAnalysis, một công ty tư vấn ngành công nghiệp chip, HBM đắt hơn khoảng 5 lần so với chip DRAM tiêu chuẩn, mang lại tổng lợi nhuận lớn hơn cho các nhà sản xuất. Hiện nay, HBM chiếm chưa đến 5% doanh thu chip nhớ trên toàn thế giới, nhưng dự kiến chiếm hơn 20% tổng doanh thu vào năm 2026.

SK Hynix là nhà cung cấp HBM hàng đầu cho Nvidia và kiểm soát khoảng một nửa thị trường vào năm ngoái, theo hãng nghiên cứu thị trường công nghệ TrendForce. Samsung chiếm 40% thị trường HBM và Micron chiếm 10% còn lại.

Giám đốc tài chính của SK Hynix, Kim Woo-hyun, dự báo ​​doanh thu HBM của hãng trong năm 2023 sẽ tăng hơn 50% so với cùng kỳ năm trước và dự kiến ​​tăng thêm trong những năm tới. Samsung cũng xem cuộc chạy đua phát triển các ứng dụng AI như ChatGPT là động lực tích cực cho nhu cầu chip nhớ trong tương lai.

Theo dự báo của các nhà phân tích của Citigroup, tỷ lệ doanh thu DRAM trên toàn thế giới liên quan đến AI sẽ tăng từ 16% trong năm nay lên 41% vào năm 2025.

Theo WSJ

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Tin liên quan

Có thể bạn quan tâm

Tin mới