Mô hình AI mới của Microsoft gây sốt: Chạy mượt trên CPU như Apple M2, không cần GPU, tốc độ gấp đôi mà nhẹ bất ngờ

Mô hình AI mới của Microsoft cho thấy tiềm năng rất lớn cho việc triển khai AI trên các thiết bị tiết kiệm tài nguyên, như điện thoại, laptop mỏng nhẹ hoặc thiết bị nhúng.

Theo TechCrunch, Microsoft vừa giới thiệu BitNet b1.58 2B4T - mô hình AI "1-bit" lớn nhất từng được huấn luyện, với tham vọng mở ra một hướng đi mới cho AI tiết kiệm tài nguyên. Điểm nổi bật nhất của BitNet là khả năng hoạt động hoàn toàn trên CPU, bao gồm cả các dòng chip tiết kiệm năng lượng như Apple M2, thay vì phụ thuộc vào GPU cao cấp như các mô hình AI hiện nay. Đáng chú ý, Microsoft đã phát hành mô hình này dưới giấy phép mã nguồn mở MIT.

Bitnet là gì và khác gì so với các mô hình AI truyền thống?

Với kích thước gọn nhẹ và thiết kế tối ưu, BitNet b1.58 2B4T được đánh giá là rất phù hợp để triển khai trên các thiết bị phần cứng hạn chế như smartphone, laptop siêu mỏng hoặc các thiết bị IoT, nơi việc sử dụng GPU là không khả thi.

Khác với các mô hình AI truyền thống vốn yêu cầu 16 hoặc 32 bit để biểu diễn mỗi trọng số (parameter/weight), BitNet chỉ sử dụng các giá trị đơn giản là -1, 0 và 1. Nhờ đó, toàn bộ trọng số của mô hình có thể được mã hóa chỉ bằng 1 hoặc 2 bit - giảm thiểu đáng kể dung lượng bộ nhớ cần thiết và tăng tốc độ xử lý, ngay cả khi chạy trên các CPU phổ thông.

Mô hình AI mới của Microsoft gây sốt: Chạy mượt trên CPU như Apple M2, không cần GPU, tốc độ gấp đôi mà nhẹ bất ngờ- Ảnh 1.

Mô hình AI mới của Microsoft cho thấy tiềm năng rất lớn cho việc triển khai AI trên các thiết bị tiết kiệm tài nguyên, như điện thoại, laptop mỏng nhẹ hoặc thiết bị nhúng, thay vì các hệ thống GPU đắt đỏ như hiện tại

BitNet b1.58 2B4T có tổng cộng 2 tỷ tham số - con số không quá lớn so với các mô hình hiện đại - nhưng lại được huấn luyện trên tập dữ liệu khổng lồ lên tới 4 nghìn tỷ token, tương đương khoảng 33 triệu cuốn sách. Nhờ đó, BitNet vẫn thể hiện hiệu năng vượt trội trong nhiều bài kiểm tra benchmark quan trọng như GSM8K (giải toán tiểu học) và PIQA (suy luận vật lý đời thường).

Trong các phép so sánh hiệu suất, BitNet đã vượt qua hàng loạt đối thủ cùng phân khúc như Meta Llama 3.2 1B, Google Gemma 3 1B và Alibaba Qwen 2.5 1.5B - không chỉ về độ chính xác mà còn về tốc độ xử lý và mức tiêu thụ bộ nhớ. Theo báo cáo, BitNet nhanh gấp đôi nhưng dùng ít RAM hơn nhiều lần.

Dù sở hữu nhiều lợi thế về hiệu năng và tính linh hoạt, BitNet hiện vẫn chỉ hoạt động tối ưu trên bitnet.cpp - một framework chuyên biệt do chính Microsoft phát triển. Mô hình này chưa hỗ trợ GPU, điều khiến việc huấn luyện hoặc triển khai ở quy mô lớn trở nên khó khăn, nhất là khi phần lớn hạ tầng AI hiện nay đều dựa trên GPU.

Tuy vậy, việc có thể vận hành trên CPU một cách trơn tru lại là điểm cộng lớn trong bối cảnh nhu cầu triển khai AI trên các thiết bị phổ thông ngày càng tăng. BitNet cho thấy tiềm năng lớn trong việc mang trí tuệ nhân tạo đến gần hơn với người dùng đại chúng - những người không sở hữu phần cứng chuyên dụng nhưng vẫn cần trải nghiệm AI một cách nhẹ nhàng, tiết kiệm điện năng và chi phí.

Nếu trong tương lai, BitNet mở rộng khả năng tương thích phần cứng và hỗ trợ thêm các nền tảng phổ biến như GPU, mô hình 1-bit này có thể sẽ đóng vai trò quan trọng trong việc phổ cập AI - đưa công nghệ trí tuệ nhân tạo ra khỏi phòng lab và tiến vào cuộc sống hàng ngày theo cách hiệu quả, đơn giản và tiết kiệm nhất.