Học sâu đơn giản, có thể mở rộng, được đóng gói bằng Nauta

Học sâu rất khó. Giữa việc tổ chức, làm sạch và gắn nhãn dữ liệu, chọn cấu trúc liên kết mạng thần kinh phù hợp, chọn siêu tham số phù hợp, sau đó chờ đợi – hy vọng – rằng mô hình được tạo ra đủ chính xác để đưa vào sản xuất. Nó có vẻ như là một câu đố không thể giải được đối với nhóm khoa học dữ liệu của bạn.

Nhưng khía cạnh CNTT của câu đố cũng không kém phần phức tạp, đặc biệt khi môi trường cần đa người dùng và hỗ trợ đào tạo mô hình phân tán. Từ việc chọn hệ điều hành đến cài đặt thư viện, khung, phần phụ thuộc và nền tảng phát triển, việc xây dựng cơ sở hạ tầng để hỗ trợ nỗ lực học sâu của công ty bạn có thể còn khó khăn hơn cả khoa học dữ liệu. Thêm vào đó, tốc độ thay đổi nhanh chóng của phần mềm học sâu và các thư viện hỗ trợ – nhiều thư viện trong số đó thay đổi hàng tháng – tạo ra một công thức khiến CNTT đau đầu.

Quá trình container hóa giúp giải quyết một số vấn đề phức tạp về CNTT. Thay vì nhân viên CNTT của bạn tập hợp hàng chục thư viện và gói phần mềm phụ thuộc để làm cho khung lựa chọn học sâu của bạn hoạt động, bạn có thể tải xuống các vùng chứa được định cấu hình sẵn để xử lý tất cả những thứ đó. Hoặc bạn có thể yêu cầu các nhà khoa học dữ liệu của mình xây dựng các vùng chứa tùy chỉnh để đáp ứng nhu cầu cụ thể của họ. Tuy nhiên, bộ phận CNTT của bạn vẫn phải xây dựng và định cấu hình cơ sở hạ tầng để điều phối các vùng chứa đó, đồng thời cung cấp nền tảng linh hoạt, có thể mở rộng để nhóm khoa học dữ liệu của bạn hoạt động hiệu quả nhất có thể.

Nền tảng học sâu Nauta

Phần mềm Nauta tìm cách giải quyết nhiều vấn đề liên quan đến việc xây dựng cơ sở hạ tầng điều phối vùng chứa để học sâu. Nauta là một nền tảng học sâu được đóng gói sử dụng Kubernetes để điều phối vùng chứa. Nó cung cấp giao diện dòng lệnh trực quan để xây dựng, chạy, quản lý và đánh giá thử nghiệm, đồng thời bao gồm các tính năng bắt buộc phải có như sổ ghi chép Jupyter và Tensorboard.

Chúng tôi đã sử dụng Nauta trong Phòng thí nghiệm đổi mới trí tuệ nhân tạo và HPC của Dell EMC , thử nghiệm các tính năng, chức năng, khả năng mở rộng và tính dễ sử dụng của nó. Chúng tôi sử dụng Nauta để chạy nhiều dự án nghiên cứu deep learning tiên tiến của mình, bao gồm đào tạo mạng nơ-ron tích chập (CNN) có thể mở rộng trên phim chụp X-quang ngực và đào tạo mạng chú ý đa đầu siêu mở rộng để dịch ngôn ngữ . Nó cho phép chúng tôi đi từ bằng chứng ban đầu về khái niệm trong sổ ghi chép Juypyter – đến đào tạo phân tán hiệu suất cao bằng cách sử dụng Horovod dựa trên MPIkhuôn khổ cho TensorFlow – để phân tích siêu tham số rộng để tạo ra mô hình chính xác nhất có thể. Trên hết, đó là một nền tảng có thể mở rộng được xây dựng dựa trên Kubernetes và Docker, cho phép chúng tôi dễ dàng chia sẻ và sao chép công việc giữa các thành viên trong nhóm.

Ngoài việc đào tạo mạng lưới thần kinh, Nauta còn cung cấp một cơ chế để kiểm tra việc triển khai các mô hình được đào tạo. Điều này cho phép chúng tôi đánh giá độ chính xác của mô hình, hiệu suất điểm chuẩn và thử nghiệm lượng tử hóa giảm độ chính xác trên phần cứng mới, chẳng hạn như bộ xử lý Intel® Xeon® Scalable thế hệ thứ 2 với Intel® Deep Learning Boost. Nauta cho phép suy luận trên cả hai lô dữ liệu, cũng như suy luận trực tuyến bằng API REST. Và mặc dù Nauta không được thiết kế rõ ràng để triển khai mô hình sản xuất, khả năng đánh giá các mô hình được đào tạo và thử nghiệm với độ chính xác giảm là một thành phần quan trọng của quá trình triển khai và phát triển mô hình tổng thể.

Nhìn về phía trước

Nhóm Phòng thí nghiệm đổi mới trí tuệ nhân tạo và HPC của Dell EMC tiếp tục sử dụng, đánh giá, báo cáo và giải quyết các vấn đề cũng như đề xuất các cải tiến cho Nauta. Một số khách hàng chọn lọc cũng đang thử nghiệm và đánh giá Nauta trên phần cứng của Dell EMC và Nauta sẽ là thành phần trung tâm của Giải pháp Sẵn sàng trong tương lai. Cuối cùng, nỗ lực AI của công ty bạn sẽ chỉ thành công nếu cơ sở hạ tầng sẵn sàng hỗ trợ nhóm khoa học dữ liệu của bạn. Nauta cung cấp một đường nối trực tiếp cho tổ chức CNTT và nhóm khoa học dữ liệu của bạn để bắt đầu đào tạo trong môi trường được chứa tại chỗ một cách nhanh chóng và dễ dàng.

Về tác giả: Luke Wilson

Lucas A. “Luke” Wilson, Ph.D. là Trưởng nhóm Nghiên cứu Trí tuệ Nhân tạo trong Phòng thí nghiệm Đổi mới HPC & AI tại Dell Technologies, nơi ông tập trung vào đào tạo và suy luận học sâu hiệu suất cao và có thể mở rộng. Trước khi gia nhập Dell Technologies, Luke là nhà nghiên cứu HPC tại Trung tâm Điện toán Cao cấp Texas, nơi anh tham gia xây dựng và vận hành một số siêu máy tính mạnh nhất trên thế giới cho nghiên cứu mở. Nền tảng nghiên cứu của Luke là siêu dữ liệu song song và phân tán bao gồm mạng lưới thần kinh nhân tạo, thuật toán di truyền và hệ thống miễn dịch nhân tạo.