Nghị quyết
HPC liên tục phát triển và do đó, khối lượng công việc cũng vậy. Khi các tập dữ liệu trở nên lớn hơn và phức tạp hơn, khối lượng công việc AI như Deep Learning đang chiếm vị trí trung tâm. Ngày càng có nhiều khối lượng công việc Deep Learning đang được chạy trên các hệ thống HPC mạnh mẽ, có thể mở rộng, độ trễ thấp để giải quyết những thách thức mà một thập kỷ trước không thể tưởng tượng được. Khối lượng công việc HPC truyền thống trong Khoa học đời sống, Sản xuất kỹ thuật số, Dầu khí, Tài chính, v.v. đang được Deep Learning thúc đẩy để tạo ra những hiểu biết có ý nghĩa hơn từ dữ liệu trong thời gian ngắn hơn và với độ chính xác cao hơn. Intel nhận ra rằng các phương pháp AI hiện là thành phần quan trọng của khối lượng công việc HPC. Để giải quyết nhu cầu đào tạo và quan trọng hơn là tạo điều kiện cho các mô hình AI đưa ra quyết định nhanh hơn, Intel đã đặt những khối lượng công việc này lên hàng đầu và trung tâm với phiên bản thứ 2 mới.Dòng bộ xử lý Intel® Xeon® Scalable thế hệ.
Bộ xử lý có khả năng mở rộng Intel® Xeon® thế hệ thứ 2
Bộ xử lý Intel® Xeon® Scalable thế hệ thứ 2 mang đến nhiều chức năng mới và cải tiến, bao gồm khả năng triển khai Bộ nhớ liên tục Intel® Optane™ DC, tốc độ DRAM được cải thiện, khả năng xử lý lớn hơn cho các tập lệnh truyền thống như FP32 có độ chính xác đơn và khả năng xử lý mới khả năng cho khối lượng công việc Học sâu với tập lệnh Intel® Deep Learning Boost mới.
Deep Learning Boost trên Bộ xử lý có khả năng mở rộng Intel® Xeon® thế hệ thứ 2
Học sâu là quá trình phát triển các mô hình bằng cách sử dụng mạng thần kinh nhân tạo bao gồm nhiều đơn vị xử lý độc lập hoặc tế bào thần kinh, được kết nối trong một biểu đồ dày đặc. Mạng nơ-ron đã thể hiện khả năng đáng kinh ngạc trong việc xác định các mẫu chưa biết hoặc không lường trước được trong tất cả các loại dữ liệu và đã được áp dụng cho các lĩnh vực từ nhận dạng và phân tích hình ảnh và video, chuyển đổi âm thanh và ngôn ngữ, dữ liệu chuỗi thời gian và phân tích phát hiện bất thường.
Quá trình sử dụng mạng thần kinh để phát triển các mô hình tiên tiến được chia thành hai giai đoạn: đào tạo, trong đó dữ liệu hiện có được sử dụng để dạy mạng thần kinh cách xác định các mẫu; và suy luận, nơi mô hình được đào tạo tiếp xúc với dữ liệu mới và dự kiến sẽ đưa ra quyết định phù hợp. Và mặc dù quá trình đào tạo mạng lưới thần kinh là trọng tâm của đổi mới phần cứng và phần mềm trong vài năm, nhưng theo suy luận thì các doanh nghiệp đang nhận được lợi ích từ những nỗ lực AI của họ.
Suy luận có các yêu cầu phần cứng khác với đào tạo. Đào tạo yêu cầu số học dấu phẩy động có độ chính xác một nửa hoặc độ chính xác đơn và khả năng xử lý đồng thời nhiều vectơ lớn của dữ liệu tương tự. Suy luận có tổng yêu cầu tính toán thấp hơn nhiều, tập trung nhiều hơn vào độ trễ (thời gian đưa ra quyết định) và có thể tận dụng các định dạng số có độ chính xác thấp hơn, chẳng hạn như số nguyên 8 bit và 16 bit.
Dòng bộ xử lý Intel® Xeon® Scalable thế hệ thứ 2 tập trung chủ yếu vào giai đoạn thứ hai (suy luận) này với một khả năng hoàn toàn mới được gọi là Deep Learning Boost. Intel® Deep Learning Boost giúp giảm độ chính xác số học (số nguyên 8-bit và 16-bin) cho các đơn vị vectơ rộng 512-bit của Xeon (AVX512). Đây là một khả năng tuyệt vời để giảm suy luận chính xác vì bộ xử lý Intel® Xeon® hỗ trợ Deep Learning Boost có thể xử lý đồng thời 64 số nguyên 8 bit (hoặc 32 số nguyên 16 bit) trong một lệnh phần cứng duy nhất! Kết hợp điều này với khả năng thực hiện các hoạt động hợp nhất, chẳng hạn như Cộng nhân hợp nhất (FMA) trên các vectơ rộng có độ chính xác thấp này và thông lượng của hệ thống sẽ tăng lên đáng kể.
Dell EMC đã đo điểm chuẩn cho các cải tiến hiệu suất khả thi mà Intel® Deep Learning Boost có thể mang lại cho suy luận mạng thần kinh. Hình trên cho thấy mức độ cải tiến mà tổ chức của bạn có thể đạt được bằng cách triển khai bộ xử lý Intel® Xeon® Scalable thế hệ thứ 2 với Intel® Deep Learning Boost. Trong khi bộ xử lý Intel® Xeon® Scalable thế hệ thứ nhất (tên mã là “Skylake”) có khả năng xử lý 258 hình ảnh mỗi giây trên điểm chuẩn suy luận ResNet-50 ở độ chính xác đơn (FP32) và 389 hình ảnh mỗi giây ở số nguyên 8 bit giảm độ chính xác, các hướng dẫn mới mà Deep Learning Boost mang đến cho bộ xử lý Intel® Xeon® Scalable thế hệ thứ 2 có thể tăng gấp ba lần thông lượng ở độ chính xác số nguyên 8 bit thành 1278 hình ảnh mỗi giây!
Tại sao điều này quan trọng
Điều này có ý nghĩa gì đối với doanh nghiệp của bạn? Mỗi suy luận mà mô hình AI của bạn đưa ra là một thông tin chi tiết mà bạn chưa từng có trước đây hoặc một khối lượng công việc mà bạn đã tự động hóa để loại bỏ rào cản đối với quyết định. Mỗi thông tin chi tiết đó – mỗi rào cản được loại bỏ đó – có thể dẫn đến một đợt bán hàng mới, một đợt bán thêm hoặc một quyết định đầu tư nhanh hơn. Đó là tiền trong túi của công ty bạn.
Khi các công ty trải qua quá trình chuyển đổi kỹ thuật số, việc sử dụng AI – và đặc biệt là Deep Dearning – sẽ rất quan trọng để duy trì tính cạnh tranh trong một thế giới dựa trên dữ liệu. Và mặc dù đào tạo các mô hình AI là trọng tâm trong giai đoạn đầu này, nhưng suy luận là cách mà các doanh nghiệp sẽ thực sự nhận ra lợi ích của AI. Các máy chủ Dell EMC PowerEdge được cung cấp bởi bộ xử lý Intel® Xeon® Scalable thế hệ thứ 2 với Intel® Deep Learning Boost có thể giúp doanh nghiệp của bạn nhận ra toàn bộ tiềm năng của AI thông qua suy luận mô hình hiệu suất cao hơn. Và hiệu suất cao hơn chuyển thành kinh doanh tốt hơn.
Bài viết mới cập nhật
OneFS Cbind và DNS Caching
OneFS cbind là daemon bộ đệm DNS phân tán cho cụm ...
NANON OneFS
Theo cách nói của OneFS, các cụm PowerScale có kết nối ...
Mở khóa tiềm năng của dữ liệu phi cấu trúc với PowerScale OneFS S3
Trong bối cảnh lưu trữ dữ liệu đang phát triển nhanh ...
Trình điều khiển máy khách đa đường dẫn PowerScale và khả năng kích hoạt AI
Trình điều khiển máy khách đa đường dẫn PowerScale và khả ...