Hai năm trước, Google từng giới thiệu chip Tensor Processing Unit hay TPU của mình – con chip AI chuyên dụng cho các trung tâm dữ liệu của công ty và đảm nhiệm các tác vụ trí tuệ nhân tạo. Giờ đây công ty đang chuyển dịch các kỹ năng của mình về AI ra khỏi đám mây và tạo thành con chip Edge TPU mới: một bộ tăng tốc AI tí hon có thể thực hiện các nhiệm vụ máy học ở trong thiết bị IoT.
Chip trí tuệ nhân tạo (AI) Edge TPU này của Google sẽ tập trung cho lĩnh vực doanh nghiệp và được thiết kế để làm các công việc “suy luận”. Đây là một phần công việc trong máy học khi một thuật toán thực hiện tác vụ mà nó được huấn luyện. Thực hiện các công việc này ngay trên thiết bị có một số ưu thế so với việc dùng phần cứng để gửi dữ liệu qua internet để phân tích. Xử lý máy học ngay trên thiết bị thường giúp tăng tính bảo mật, giảm thời gian chết và đưa ra kết quả nhanh hơn.
Google không phải là công ty thiết kế chip AI duy nhất tiếp cận theo hướng xử lý tác vụ AI ngay trên thiết bị. ARM, Qualcomm, Mediatek và các công ty khác cũng đang tạo ra những bộ tăng tốc AI của riêng họ, trong khi các GPU do Nvidia tạo ra đang thống trị thị trường và nổi tiếng với các thuật toán huấn luyện.
Tuy nhiên, điều các đối thủ của Google không có là khả năng kiểm soát toàn bộ hệ sinh thái AI. Khách hàng có thể lưu trữ dữ liệu của họ trên Google Cloud, huấn luyện thuật toán của họ bằng TPU và sau đó thực hiện việc suy luận ngay trên thiết bị bằng chip Edge TPU mới.
Điều thú vị là Google cũng đang biến Edge TPU thành một bộ kit phát triển, điều này sẽ giúp khách hàng dễ dàng thử nghiệm năng lực phần cứng. Bộ kit phát triển này bao gồm một hệ thống trên module (SoM: System on Module) chứa cả chip Edge TPU, một NXP CPU, một bộ phận bảo mật Microchip và chức năng Wi-fi. Nó có thể kết nối tới một máy tính và máy chủ qua USB hoặc khe cắm mở rộng PCI Express. Tuy nhiên, hiện các bộ kit phát triển này chỉ có mặt ở dạng beta và các khách hàng tiềm năng sẽ phải đăng ký để được truy cập.