Amazon.com hôm thứ Ba (28/11) đã công bố sản phẩm chip trí tuệ nhân tạo mới cho dịch vụ điện toán đám mây của mình khi sự cạnh tranh với Microsoft nhằm chiếm lĩnh thị trường trí tuệ nhân tạo ngày càng nóng lên.
Tại một hội nghị ở Las Vegas, CEO Amazon Web Services (AWS) Adam Selipsky đã công bố Trainium2, thế hệ chip thứ hai được thiết kế để đào tạo các hệ thống AI. Ông Selipsky cho biết phiên bản mới có tốc độ nhanh gấp 4 lần so với phiên bản tiền nhiệm trong khi tiết kiệm năng lượng gấp 2 lần.
Động thái của AWS diễn ra vài tuần sau khi Microsoft công bố chip AI của riêng mình có tên Maia. Chip Trainium2 cũng sẽ cạnh tranh với chip AI từ Alphabet, công ty đã cung cấp Bộ xử lý Tensor (TPU) cho khách hàng điện toán đám mây của mình kể từ năm 2018.
CEO Selipsky cho biết AWS sẽ bắt đầu cung cấp chip đào tạo mới vào năm tới. Sự gia tăng nhanh chóng của các chip tùy chỉnh diễn ra trong bối cảnh cuộc tranh giành sức mạnh tính toán để phát triển các công nghệ như mô hình ngôn ngữ lớn tạo thành nền tảng của các dịch vụ tương tự như ChatGPT.
Các công ty điện toán đám mây đang cung cấp chip của họ như một sự bổ sung cho Nvidia, công ty dẫn đầu thị trường về chip AI đang thiếu hụt sản phẩm trong năm qua.
Amazon Web Services cũng cho biết hôm thứ Ba rằng họ sẽ cung cấp chip mới nhất của Nvidia trên dịch vụ đám mây của mình.
Ông Selipsky hôm thứ Ba cũng đã công bố Graviton4, chip xử lý trung tâm tùy chỉnh thứ tư của công ty đám mây, được cho là nhanh hơn 30% so với thế hệ tiền nhiệm. Tin tức này xuất hiện vài tuần sau khi Microsoft công bố chip tùy chỉnh của riêng mình có tên Cobalt được thiết kế để cạnh tranh với dòng Graviton của Amazon.
Cả AWS và Microsoft đều đang sử dụng công nghệ của Arm Ltd trong chip của họ, một phần của xu hướng đang diễn ra là tránh xa chip do Intel và Advanced Micro Devices sản xuất trong điện toán đám mây.