Công nghệ

Samsung tung chip nhớ ‘dung lượng cao nhất cho đến nay’ dành cho AI

(VNF) - Samsung Electronics cho biết họ đã phát triển một loại chip nhớ băng thông mới có “dung lượng cao nhất cho đến nay” trong ngành.

Gã khổng lồ chip Hàn Quốc tuyên bố HBM3E 12H “tăng hơn 50% cả hiệu suất và công suất”.

Ông Yongcheol Bae, phó chủ tịch điều hành kế hoạch sản phẩm bộ nhớ tại Samsung Electronics cho biết: “Các nhà cung cấp dịch vụ AI trong ngành ngày càng yêu cầu HBM (High Bandwidth Memory - bộ nhớ băng thông cao) có công suất cao hơn và sản phẩm HBM3E 12H mới của chúng tôi đã được thiết kế để đáp ứng nhu cầu đó”.

Gã khổng lồ chip Hàn Quốc tuyên bố HBM3E 12H “tăng hơn 50% cả hiệu suất và công suất”.

“Giải pháp bộ nhớ mới này là một phần trong nỗ lực của chúng tôi hướng tới phát triển các công nghệ cốt lõi cho HBM (High Bandwidth Memory - bộ nhớ băng thông cao) cao cấp và mang lại sự dẫn đầu về công nghệ cho thị trường HBM dung lượng cao trong kỷ nguyên AI”, ông Yongcheol Bae cho biết thêm.

Samsung Electronics là nhà sản xuất bộ nhớ truy cập ngẫu nhiên động (DRAM hay RAM động) lớn nhất thế giới, được sử dụng trong các thiết bị tiêu dùng như điện thoại thông minh và máy tính.

Các mô hình AI sáng tạo như ChatGPT của OpenAI yêu cầu số lượng lớn chip bộ nhớ hiệu suất cao. Những con chip như vậy cho phép các mô hình AI tổng hợp ghi nhớ chi tiết từ các cuộc trò chuyện trong quá khứ và sở thích của người dùng để tạo ra phản hồi giống con người.

Cuộc đua ngành chip

Sự bùng nổ AI tiếp tục thúc đẩy các nhà sản xuất chip. Nhà thiết kế chip Nvidia của Mỹ đã công bố doanh thu quý tài chính thứ IV/2023 tăng 265% nhờ nhu cầu tăng vọt đối với các đơn vị xử lý đồ họa, trong đó có hàng nghìn đơn vị được sử dụng để chạy và đào tạo ChatGPT.

Samsung cho biết họ đã bắt đầu lấy mẫu chip cho khách hàng và dự kiến ​​sản xuất hàng loạt HBM3E 12H vào nửa đầu năm 2024.

Trong cuộc gọi với các nhà phân tích, Giám đốc điều hành Nvidia Jensen Huang cho biết công ty có thể không duy trì được mức tăng trưởng hoặc doanh số bán hàng này trong cả năm.

“Khi các ứng dụng AI phát triển theo cấp số nhân, HBM3E 12H được kỳ vọng sẽ là giải pháp tối ưu cho các hệ thống trong tương lai cần nhiều bộ nhớ hơn. Hiệu suất và công suất cao hơn sẽ đặc biệt cho phép khách hàng quản lý tài nguyên của họ linh hoạt hơn và giảm tổng chi phí sở hữu cho các trung tâm dữ liệu”, Samsung Electronics cho biết.

Samsung cho biết họ đã bắt đầu lấy mẫu chip cho khách hàng và dự kiến ​​sản xuất hàng loạt HBM3E 12H vào nửa đầu năm 2024.

Chia sẻ với CNBC, SK Kim, giám đốc điều hành của Daiwa Securities, cho hay: “Tôi cho rằng tin tức này sẽ tích cực đối với giá cổ phiếu của Samsung”.

Vào tháng 9, Samsung đã đạt được thỏa thuận cung cấp cho Nvidia 3 chip bộ nhớ băng thông cao, theo báo cáo của Korea Economic Daily trích dẫn các nguồn tin ẩn danh trong ngành.

Báo cáo cũng cho biết SK Hynix, nhà sản xuất chip nhớ lớn thứ hai của Hàn Quốc, đang dẫn đầu thị trường chip nhớ hiệu năng cao. Báo cáo cho biết SK Hynix trước đây được biết đến là nhà sản xuất hàng loạt chip HBM3 duy nhất cung cấp cho Nvidia.

Samsung cho biết HBM3E 12H có ngăn xếp 12 lớp nhưng áp dụng màng không dẫn điện nén nhiệt tiên tiến, cho phép sản phẩm 12 lớp có cùng thông số chiều cao như sản phẩm 8 lớp để đáp ứng yêu cầu gói HBM hiện tại. Kết quả là một con chip có sức mạnh xử lý cao hơn mà không làm tăng dấu chân vật lý của nó.

Xem thêm >> Thưởng Tết của 'ông lớn' Hàn Quốc: LG hào phóng, Samsung khiêm tốn bất ngờ

Tin mới lên