GPU AI datacenter vẫn thua RTX 5090 khi crack mật khẩu

GPU AI cho datacenter thường được nhìn như đỉnh hiệu năng tính toán, nhưng bài benchmark mới do Tom’s Hardware dẫn lại cho thấy một nghịch lý khá rõ. Khi chuyển sang bài test khôi phục mật khẩu từ hash, những mẫu tăng tốc vốn phục vụ AI như Nvidia H200 và AMD MI300X lại xếp sau GeForce RTX 5090. Kết quả này không có nghĩa card chơi game mạnh hơn GPU máy chủ ở mọi mặt, nhưng nó cho thấy GPU AI crack mật khẩu là một câu chuyện khác với huấn luyện hay suy luận mô hình. Với người dùng phổ thông, điều đáng chú ý nhất là nhãn “AI” không tự động đồng nghĩa vượt trội trong mọi tác vụ nặng.

RTX 5090 dẫn trước trong cả 5 phép thử khôi phục mật khẩu

Dữ liệu được trích từ Specops Software, đơn vị dùng ba mẫu GPU gồm H200, MI300X và RTX 5090 để chạy năm thuật toán băm quen thuộc là MD5, NTLM, bcrypt, SHA-256 và SHA-512. Đây là nhóm bài test gần với workload của các công cụ dò mật khẩu: hệ thống sẽ thử số lượng phép tính lặp lại rất lớn để tìm chuỗi đầu vào khớp với hash có sẵn, nên ưu tiên thông lượng xử lý hơn là các khối tăng tốc chuyên cho AI.

GPU AI datacenter vẫn thua RTX 5090 khi crack mật khẩu

Kết quả cho thấy mẫu GeForce đứng đầu ở toàn bộ năm phép đo. Ở MD5, RTX 5090 đạt 219,5 GH/s, bỏ xa mốc 164,1 GH/s của MI300X và 124,4 GH/s của H200. Với NTLM, khoảng cách vẫn được duy trì khi card desktop đạt 340,1 GH/s, trong khi hai GPU máy chủ lần lượt dừng ở 268,5 GH/s và 218,2 GH/s. Sang bcrypt, lợi thế của mẫu GeForce vẫn còn với 304,8 kH/s, nhỉnh hơn H200 và vượt khá xa GPU của AMD.

Hai phép thử SHA-256 và SHA-512 cũng đi theo cùng một xu hướng. Mẫu consumer cao cấp của Nvidia lần lượt đạt 27.681,6 MH/s và 10.014,2 MH/s, tiếp tục dẫn trước MI300X rồi đến H200. Nếu lấy trung bình năm bài đo như Tom’s Hardware tổng hợp, RTX 5090 nhanh hơn MI300X khoảng 20% và nhanh hơn H200 tới 63,7%. Khoảng cách này đủ lớn để người đọc phải đặt lại câu hỏi: vì sao phần cứng AI đắt gấp nhiều lần lại thua ở kiểu tác vụ này?

Điểm đáng nói là bài benchmark không phủ nhận giá trị của H200 hay MI300X trong môi trường datacenter. Nó chỉ cho thấy khi mục tiêu là thử hash thật nhanh, kiến trúc tối ưu cho AI chưa chắc là lợi thế. Câu chuyện này cũng tương tự cách nhiều bài đo trước đây về RTX 5090 cho thấy một GPU có thể rất mạnh ở bài toán này nhưng lại giảm hiệu quả ở bối cảnh khác.

Vì sao GPU tối ưu AI lại không hợp workload kiểu Hashcat?

Khác biệt lớn nhất nằm ở loại phép tính mà mỗi dòng chip được ưu tiên. Theo phân tích của Tom’s Hardware, workload crack mật khẩu bằng Hashcat phụ thuộc nhiều vào phép toán số nguyên 32-bit, tức INT32, và phải lặp lại với mật độ cực cao. Trong khi đó, các GPU AI đời mới lại dồn nhiều transistor và băng thông cho Tensor Core cùng những định dạng như FP4, BF16, FP8 hoặc INT8, vì đó mới là phần mang lại hiệu quả tốt cho huấn luyện và suy luận mô hình.

Nói cách khác, H200 không hề yếu, nhưng nó mạnh ở đúng nhóm tác vụ được thiết kế để phục vụ. Khi bị đưa sang bài kiểm tra thiên về hash cracking, phần tài nguyên đắt tiền nhất trên GPU máy chủ không còn phát huy rõ như trong datacenter AI. MI300X cũng cho thấy điều tương tự: năng lực INT32 trên lý thuyết không thấp, nhưng kết quả thực tế vẫn xếp sau mẫu GeForce do phần mềm, driver và mức tối ưu của công cụ hiện tại còn ảnh hưởng rất lớn.

Đó là lý do GPU AI crack mật khẩu nghe nghịch lý nhưng lại hoàn toàn hợp logic kỹ thuật. Một con chip được tinh chỉnh cho mô hình ngôn ngữ lớn, suy luận đa luồng và tải dữ liệu khổng lồ sẽ không tự động là lựa chọn tốt nhất cho mọi dạng tính toán song song. Nếu mục tiêu là chạy AI, H200 và MI300X vẫn thuộc nhóm tăng tốc hàng đầu. Nhưng nếu tiêu chí chỉ là tốc độ thử hash, RTX 5090 mới là cái tên đi trước, còn bài học rút ra cho người mua phần cứng là nên nhìn đúng workload thay vì chỉ nhìn nhãn AI hoặc mức giá.

Viết một bình luận