MLCommons, một nhóm phát triển các bài kiểm tra điểm chuẩn cho công nghệ trí tuệ nhân tạo (AI), hôm 27.6 đã công bố kết quả cho một bài kiểm tra mới, xác định tốc độ hệ thống khi đào tạo thuật toán được sử dụng cho các chatbot như ChatGPT, Reuters đưa tin.
Điểm chuẩn MLPerf dựa trên GPT-3, một mô hình AI được sử dụng để đào tạo ChatGPT, chatbot nổi tiếng do OpenAI phát triển và được hỗ trợ bởi Microsoft. Tuy nhiên, vì mô hình rất lớn nên bài đánh giá chỉ đo đạc một phần đại diện.
Giám đốc điều hành MLCommons David Kanter nói với Reuters: “Đây là bài kiểm tra đắt nhất của chúng tôi cho đến nay. Chúng tôi đã dành hơn 600.000 giờ làm việc với máy tính để phát triển nó, cùng sự giúp đỡ của một số kĩ sư tài năng”. Ông Kanter từ chối tiết lộ chi phí phát triển, nhưng nói rằng, nó lên tới hàng triệu USD.
Hiện tại, chỉ có hai công ty sản xuất chip là Nvidia và Habana Labs của Intel đã có kết quả của bài kiểm tra này. Trong đó, vị trí tốc độ cao nhất thuộc về các hệ thống sử dụng chip H100 mới nhất của Nvidia, công ty hàng đầu về phần cứng dành cho đào tạo AI.
Hệ thống lớn nhất của Nvidia được đệ trình với sự hợp tác của công ty khởi nghiệp đám mây AI CoreWeave đã sử dụng 3.584 chip H100, dẫn đến thời gian đào tạo là 10,94 phút.
Habana Labs, một công ty sản xuất chip AI được Intel mua lại, đã chạy bài kiểm tra trong 311,945 phút với một hệ thống nhỏ hơn nhiều, bao gồm 384 chip Gaudi2. Nói chung, một hệ thống lớn hơn và có nhiều chip hơn sẽ đào tạo AI nhanh hơn.
Jordan Plawner, giám đốc cấp cao mảng Sản phẩm AI của Intel cho biết kết quả bài kiểm tra đã chứng minh tiềm năng của Gaudi2. Công ty sẽ sớm có bản cập nhật phần mềm vào tháng 9 để tăng tốc độ cho hệ thống của mình.
Ông Plawner từ chối cho biết, chip Gaudi2 có giá chính xác là bao nhiêu, nhưng lưu ý rằng ngành công nghiệp cần nhà cung cấp chip thứ hai để đào tạo AI và kết quả bài kiểm tra MLPerf cho thấy Intel có thể đáp ứng nhu cầu đó.