Máy chủ mới mang lại bước nhảy vọt lớn về hiệu suất AI

Các máy chủ CPU và GPU PowerEdge mới ra mắt của Dell mang đến một bước nhảy đáng kinh ngạc về hiệu suất cho đào tạo và suy luận AI.

Trí tuệ nhân tạo đang chuyển đổi nhanh chóng một loạt các ngành công nghiệp với các ứng dụng mới xuất hiện mỗi ngày. Khi công nghệ này trở nên phổ biến hơn, cơ sở hạ tầng phù hợp là cần thiết để hỗ trợ sự phát triển của nó. Dell Technologies đã đáp ứng nhu cầu ngày càng tăng này bằng cách phát hành các máy chủ cấu hình giá đỡ PowerEdge thế hệ tiếp theo, mang lại sự gia tăng đáng kể về công suất và hiệu suất so với thế hệ trước.

PowerEdge hiện cung cấp các máy chủ có thể dễ dàng cài đặt trong hoặc ngoài trung tâm dữ liệu. Chúng cũng bao gồm một loạt các mô hình được tối ưu hóa cho GPU có thể hỗ trợ nhiều trường hợp sử dụng AI khác nhau từ AI đến biên và viễn thông. Một số kiểu máy cũng cung cấp các tùy chọn làm mát bổ sung được thiết kế đặc biệt để mang lại hiệu quả và hiệu suất hoạt động và có thể bao gồm:

    • Làm mát bằng không khí ngang hàng NVLink tám chiều
    • NVLink bốn chiều ngang hàng hỗ trợ làm mát bằng không khí
    • Làm mát bằng chất lỏng trực tiếp

Các tùy chọn này cung cấp cho khách hàng các tùy chọn khác nhau khi họ đánh giá nhu cầu làm mát của mình khi lập kế hoạch phát triển cơ sở hạ tầng để hỗ trợ các ứng dụng liên quan đến AI.

Hiệu suất được đồng bộ hóa

Hiệu suất của những nền tảng mới này rất ấn tượng. Một ví dụ là XE9680 với 8x GPU Nvidia H100 và NVLink. Nó đã thể hiện sự cải tiến gấp tám lần so với thế hệ trước trong thử nghiệm hiệu suất máy học (ML) Inference 3.0 để đào tạo AI yêu cầu cao, đào tạo mô hình AI tổng quát cũng như tinh chỉnh và các chỉ số suy luận AI. Các tính năng chính của XE9680 hỗ trợ hiệu suất này bao gồm:

    • Bộ xử lý Intel Xeon thế hệ thứ 4 với CPU số lượng lõi cao trên mỗi ổ cắm
    • Tám GPU Nvidia H100 được kết nối với NVLink
    • 2 ổ NVMe trên mỗi GPU để hỗ trợ một lượng lớn không gian đầu
    • Lưu trữ trực tiếp GPU để di chuyển dữ liệu từ bộ lưu trữ gắn mạng bên ngoài sang GPU thông qua RDMA
    • 10x khe cắm PCIe để hỗ trợ cấu hình cụm AI lớn.

R760xa với Nvidia H100 và XR5610 với Nvidia L4 cũng cho thấy kết quả vượt trội đối với trung tâm dữ liệu và hội thảo biên với hiệu suất/watt cao cho các ứng dụng biên.

Suy luận mọi nơi

Bộ xử lý có khả năng mở rộng Xeon thế hệ thứ 4 của Intel cũng mang lại những cải tiến đáng kể cho khối lượng công việc AI. R760 với bộ xử lý có thể mở rộng Intel Xeon thế hệ thứ 4 sử dụng công nghệ AMX để cải thiện tới 8 lần thông lượng suy luận. Với công nghệ Intel AMX, các nhà phát triển có thể tận dụng AMX để tăng hiệu suất của khối lượng công việc AI trong khi vẫn tiếp tục sử dụng tập lệnh ISA cho khối lượng công việc không phải AI. Lợi ích này mở rộng ra toàn bộ danh mục PowerEdge, tạo ra sự nâng cao hiệu suất lớn cho khối lượng công việc AI từ biên đến lõi.

Những tiến bộ công nghệ này trong các máy chủ được tối ưu hóa cho GPU và bộ xử lý Xeon của Intel đang tạo nền tảng cho phép tạo ra phần mềm đào tạo và suy luận AI mới, các mô hình AI tổng quát, công cụ AI DevOps và ứng dụng AI. Bản phát hành mới nhất của các nền tảng hỗ trợ AI và ML của Dell Technologies mang đến sự linh hoạt mà người dùng cuối cần để tạo các ứng dụng AI trải dài từ lõi đến cạnh.

Xây dựng một tương lai được hỗ trợ bởi AI

Dell Technologies đã tập trung đáng kể vào kiến ​​trúc và thiết kế của các nền tảng này để hỗ trợ các ứng dụng AI hiện tại và tương lai. Những tiến bộ về cơ sở hạ tầng này là cần thiết để đáp ứng nhu cầu ngày càng tăng về AI và sự phức tạp ngày càng tăng của các mô hình và khối lượng công việc đang được phát triển. Với các máy chủ PowerEdge mới nhất của mình , Dell Technologies đang mở đường cho một tương lai AI mạnh mẽ và hiệu quả hơn cả bên trong và bên ngoài trung tâm dữ liệu.