Máy Tính AMD Instinct MI300X với dung lượng 192GB RAM: Sự đối đầu của AMD trước con chip xử lý Trí tuệ Nhân t

Thảo luận trong 'Diễn Đàn Mua Bán' bắt đầu bởi saiyeue, 28/8/23.

  1. saiyeue

    saiyeue Member

    Tham gia ngày:
    19/8/23
    Bài viết:
    46
    Được thích:
    0
    Điểm thành tích:
    6
    Giới tính:
    Nam
    Ngoài việc trình làng dòng chip xử lý máy chủ EPYC, bao gồm các phiên bản trang bị 3D V-cache, AMD đã giới thiệu con chip GPU hàng đầu Instinct MI300X tại sự kiện ra mắt sản phẩm doanh nghiệp. GPU này được thiết kế đặc biệt để phục vụ việc xử lý High Performance Computing (HPC), data center nói chung và Trí tuệ Nhân tạo (AI) nói riêng.
    [​IMG]
    Trước đó, phiên bản MI300 với bộ nhớ 128GB đã được công bố, và giờ đã đổi tên thành MI300A. Tuy nhiên, MI300X, một tên mới, đã được ra mắt với việc áp dụng toàn bộ tile nhân xử lý từ kiến trúc GPU CDNA 3, thay vì kết hợp cả CPU và GPU như MI300A. Chip này trang bị 192GB VRAM HBM3, và được tối ưu hóa cho việc huấn luyện và vận hành các mô hình ngôn ngữ trong lĩnh vực machine learning. Sự tiện ích của bộ nhớ rộng lớn này hiện thể hiện rõ nhất khi vận hành những mô hình ngôn ngữ lớn (Large Language Models - LLM) mà ngày nay đang trở thành xu hướng quan trọng.
    [​IMG]
    Không chỉ có MI300X, dòng chip MI300 của AMD còn bao gồm các lựa chọn APU (Accelerated Processing Unit) kết hợp cả nhân xử lý CPU Zen 4 và GPU CDNA 3, tạo ra những giải pháp chiplet dành cho doanh nghiệp, với khả năng truyền dữ liệu lớn giữa CPU và GPU thông qua công nghệ HBM3 và Infinity Fabric. Đáng chú ý, hiện không có đơn vị nào ngoài AMD tạo ra giải pháp APU kết hợp cả CPU và GPU trên cùng một chip xử lý. Ngược lại, Nvidia có Grace Hopper, nhưng đó là hai con chip độc lập kết nối thông qua cầu nối NVLink có băng thông cao.

    Quay trở lại với MI300X, do chỉ tập trung vào việc sử dụng các nhân GPU, thiết kế của MI300X được đơn giản hóa hơn so với MI300A khá nhiều. Xung quanh die chip bán dẫn là 8 stack VRAM HBM3. Tại thời điểm CES 2023, chỉ có giải pháp chip RAM HBM3, giới hạn bộ nhớ tối đa lên đến 128GB trên mỗi chip. Tuy nhiên, với sự phát triển, HBM3 24GB đã có sẵn, cho phép MI300X sử dụng tối đa 192GB bộ nhớ. Bên trên die chip, có 2 nhân CDNA 3, tổng cộng 8 chiplet GPU và 4 chiplet I/O.

    Dự kiến, mẫu thử nghiệm (sample) của MI300X sẽ được cung cấp cho các đối tác doanh nghiệp để thử nghiệm trong quý III. Tuy nhiên, tại sự kiện công bố giải pháp Data Center và HPC, AMD chưa công bố hiệu năng xử lý của MI300X.
    [​IMG]
    Sự ra mắt của MI300A và MI300X cho thấy AMD đã thành công trong việc thương mại hóa các thiết kế chip linh hoạt XPU. Trước đó, Intel cũng đã có ý tưởng tương tự với Falcon Shores - một kiến trúc CPU và GPU kết hợp dành cho doanh nghiệp. Tuy nhiên, hiện tại Intel chỉ tập trung ra mắt GPU kiến trúc Falcon Shores. MI300A và MI300X sẽ được so sánh trực tiếp với sản phẩm mạnh nhất của Nvidia, Grace Hopper. Tuy Nvidia cũng đang có giải pháp xử lý mạnh mẽ, nhưng nó không kết hợp cả CPU và GPU trên một die chip, mà là hai con chip riêng biệt kết nối qua cầu nối NVLink có băng thông cao.
    [​IMG]
    Tóm lại, trong bối cảnh thị trường chip xử lý nghiên cứu và vận hành AI đang rất sôi động, sự chú ý sẽ tập trung vào AMD để xem họ có thể làm chấm dứt thế độc quyền tạm thời của Nvidia trong lĩnh vực này hay không. Mô hình giá trị của AMD, với những sản phẩm có giá trị hàng chục hay thậm chí hàng trăm nghìn USD như H100, hứa hẹn sẽ tạo ra tầm ảnh hưởng đáng kể trong báo cáo tài chính của họ trong năm nay. Hơn nữa, việc kết hợp các chip MI300X lại với nhau tạo thành platform điện toán AMD Infinity Architecture Platform, cho thấy hướng đi tương lai của họ trong lĩnh vực này.
     
Nếu chưa có nick trên 6giay.vn thì dùng nick facebook bình luận nhé
  • Chia sẻ trang này