Thứ Hai, 7/10/2024
35.6 C
Ho Chi Minh City

SK Hynix, Samsung gặt hái thành quả nhờ đặt cược sớm vào chip nhớ đào tạo AI

Lê Linh

Kinh tế Sài Gòn Online

Kinh tế Sài Gòn Online

(KTSG Online) - Cổ phiếu của hai nhà sản xuất chip hàng đầu Hàn Quốc, Samsung Electronics và SK Hynix, tăng giá trong tuần qua bất chấp hoạt động kinh doanh sa sút. Sự phấn khích của nhà đầu tư đến từ triển vọng kinh doanh của hai công ty này ở mảng chip nhớ băng thông cao (HBM), đóng vai trò quan trọng đối với sự phát triển của công nghệ trí tuệ nhân tạo (AI) tạo sinh.

SK Hynix và Samsung Electronics cùng nhau kiểm soát 90% thị trường chip HBM toàn cầu. Ảnh: Biz Watch

SK Hynix và Samsung Electronics cùng nhau kiểm soát 90% thị trường chip HBM toàn cầu, thành phần quan trọng trong các hệ thống cần thiết để đào tạo các hệ thống AI như ChatGPT của OpenAI.

Cả hai công ty Hàn Quốc đã công bố kế hoạch tăng gấp đôi sản lượng chip HBM của họ vào năm tới. Dù vậy, họ thu hẹp quy mô ở những phân khúc khác trong lĩnh vực chip nhớ trong bối cảnh tình trạng thừa nguồn cung làm giảm mạnh lợi nhuận hoạt động của họ.

Daniel Kim, nhà phân tích của Macquarie, nói: “Chip HBM là thành phần quan trọng đối với các máy chủ AI. Bạn không thể tạo ra các mô hình ngôn ngữ lớn mà không có chúng”.

Hôm 27-7, Samsung công bố lợi nhuận hoạt động trong quí 2 đạt 668,5 tỉ won (522 triệu đô la), giảm 95% so với cùng kỳ năm ngoái. Nhưng hãng cũng báo cáo sự gia tăng đơn đặt hàng cho công nghệ chip nhớ cao cấp, bao gồm cả chip HBM3 thế hệ mới nhất.

Một ngày trước đó, SK Hynix, công ty đi tiên phong trong công nghệ chip HBM, xác nhận nhu cầu loại chip này đang tăng, dù hãng báo khoản lỗ hoạt động 2,28 tỉ đô la trong quí 2 năm nay.

SK Hynix là công ty sản xuất chip HBM đầu tiên trên thế giới vào năm 2015. Cổ phiếu của SK Hynix tăng giá tới 12% trong tuần qua, trong khi cổ phiếu của Samsung tăng giá 2,4% vào hôm 27-7 trước khi giảm trở lại. Cả hai công ty kỳ vọng lĩnh vực chip nhớ sẽ phục hồi rõ nét hơn vào cuối năm nay.

“Các máy chủ AI sử dụng bộ nhớ ít nhất gấp 2-8 lần so với các máy chủ truyền thống để xử lý tính toán nhanh hơn. Vì vậy, chúng được trang bị các sản phẩm chip nhớ hiệu suất cao như HBM. Điều này không chỉ thúc đẩy nhu cầu mà còn tác động tích cực đến lợi nhuận của công ty chúng tôi”, Kim Woohyun, Giám đốc tài chính của SK Hynix nói trong cuộc họp báo hôm 26-7.

Theo các nhà nghiên cứu của TrendForce, SK Hynix chiếm 50% thị phần chip HBM toàn cầu vào năm ngoái, tiếp theo là Samsung (40%) và đối thủ Mỹ, Micron Technology (10%).

Ban đầu được sử dụng cho card đồ họa chơi game cao cấp, chip HBM vẫn chiếm một thị phần nhỏ trong thị trường “bộ nhớ truy cập ngẫu nhiên động” (DRAM) toàn cầu. Loại chip này sử dụng công nghệ xếp chồng nhiều chip DRAM lên nhau để cải thiện băng thông và hiệu suất của các đơn vị xử lý đồ họa (GPU) trong máy tính tốc độ cao.

Nhà phân tích Daniel Kim cho biết: “Về khối lượng, chip HBM dự kiến chiếm khoảng 3% tổng số lô hàng chip nhớ DRAM trong năm nay và 5% trong năm tới. Nhưng với mức giá cao, chúng sẽ đóng góp đến 8-9% tổng doanh thu chip DRAM”.

Năm ngoái, SK Hynix trở thành công ty đầu tiên sản xuất hàng loạt chip HBM3 thế hệ thứ tư được sử dụng trong GPU H100 của hãng chip Nvidia (Mỹ). Nhu cầu sử dụng GPU H100 để huấn luyện các mô hình AI tăng đột biến kể từ khi OpenAI ra mắt ChatGPT vào cuối năm ngoái. Nhờ đó, vốn hóa của Nvidia tăng vượt mức 1.000 tỉ đô la hồi tháng 5.

Theo các chuyên gia trong ngành, nguồn cung HBM dự kiến tiếp tục khan hiếm trong hai năm tới do mất nhiều thời gian để điều chỉnh công suất sản xuất. Việc tăng sản lượng HBM nhanh chóng là nhiệm vụ khó khăn vì loại chip này đòi hỏi dây chuyền sản xuất chuyên biệt.

Nvidia vẫn đang mua chip HBM dù giá tăng và đã đặt hết công suất để đáp ứng các đơn hàng GPU H100. Điều này góp phần gây ra sự thiếu hụt đối với những đối thủ nhỏ hơn.

Oh Jinwook, giám đốc công nghệ của Rebellions, công ty khởi nghiệp phát triển chip AI ở Hàn Quốc, nói: “Việc mua chip HBM3 trở nên khó khăn hơn khi các dịch vụ AI tạo sinh trở nên phổ biến hơn và Nvidia đang mua hầu hết chúng để trang bị cho GPU của hãng này”.

Nvidia và hãng chip AMD (Mỹ) cũng đánh tiếng đặt mua các chip HBM3E thế hệ tiếp theo của SK Hynix, hiện chưa được sản xuất hàng loạt.

Theo hai nguồn tin thân cận với SK Hynix, Nvidia đã yêu cầu SK Hynix cung cấp HBM3E càng sớm càng tốt và sẵn sàng trả “mức giá cao”.

“Chúng cần thiết cho GPU sử dụng ở các trung tâm dữ liệu và công việc đào tạo AI, vì vậy, cần phải mua chúng ngay cả khi giá đắt hơn”, một đại lý tìm nguồn cung ứng chip HBM nói với Financial Times.

Samsung, công ty duy nhất đang sản xuất chip HBM3 hàng loạt, cũng đang nghiên cứu chip HBM3P thế hệ tiếp theo, dự kiến sản xuất vào cuối năm nay.

Jaejune Kim, Phó Chủ tịch điều hành mảng kinh doanh chip nhớ của Samsung, nói với các nhà phân tích trong tuần này rằng hãng sẽ tăng gấp đôi công suất HBM trong giai đoạn 2023-2024. Samsung khẳng định hãng đang dẫn đầu thị trường HBM toàn cầu, chứ không phải SK Hynix

Trong tuần qua, Micron thông báo bắt đầu sản xuất thử nghiệm chip HBM3 thế hệ thứ hai nhằm thu hẹp khoảng cách với các đối thủ Hàn Quốc.

TrendForce dự báo, nhu cầu toàn cầu về chip HBM sẽ tăng 60% vào năm 2023 và 30% nữa vào năm tới. Hãng nghiên cứu này cũng dự đoán, đến năm 2024, SK Hynix sẽ chiếm 53% thị phần HBM, tiếp theo là Samsung (38%) và Micron (9%).

Kim của Macquarie cho biết: “Đây là lần đầu tiên SK Hynix dẫn trước Samsung trong cuộc đua công nghệ bộ nhớ. SK Hynix đã sớm đặt cược vào chip HBM và đang gặt hái thành quả”.

Theo Financial Times

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Tin liên quan

Có thể bạn quan tâm

Tin mới