Bộ phận đám mây của Amazon (NASDAQ:AMZN).com Inc, Amazon Web Services (AWS), đã công bố quan hệ đối tác với công ty khởi nghiệp trí tuệ nhân tạo Hugging Face. Sự hợp tác này nhằm mục đích đơn giản hóa việc triển khai hàng nghìn mô hình AI bằng cách sử dụng chip điện toán Inferentia2 tùy chỉnh của Amazon.
Hugging Face, trị giá 4,5 tỷ USD, đã trở thành một nguồn tài nguyên quan trọng cho các nhà nghiên cứu và phát triển AI để chia sẻ và sửa đổi chatbot và phần mềm AI khác. Công ty được hỗ trợ bởi một số gã khổng lồ công nghệ, bao gồm Amazon, công ty mẹ của Google là Alphabet Inc và Nvidia (NASDAQ:NVDA) Corp.
Sự hợp tác này giải quyết một thách thức chung mà các nhà phát triển phải đối mặt, những người sau khi tinh chỉnh các mô hình AI nguồn mở như Llama 3 của Meta Platforms Inc, tìm cách sử dụng các mô hình này trong các ứng dụng phần mềm. Với việc tích hợp Hugging Face và AWS, giờ đây các nhà phát triển có thể dễ dàng chạy các mô hình này trên chip Inferentia2 của AWS.
Jeff Boudier, người đứng đầu sản phẩm và tăng trưởng của Hugging Face, nhấn mạnh tầm quan trọng của hiệu quả, nói rằng, “Một điều rất quan trọng đối với chúng tôi là hiệu quả – đảm bảo rằng càng nhiều người càng tốt có thể chạy các mô hình và họ có thể chạy chúng theo cách hiệu quả nhất về chi phí.”
AWS quan tâm đến việc thu hút nhiều nhà phát triển AI hơn vào các dịch vụ đám mây của mình bằng cách cung cấp giải pháp hiệu quả về chi phí để chạy AI. Trong khi Nvidia được biết đến với sự thống trị trong việc đào tạo các mô hình AI, AWS cho rằng chip Inferentia2 của họ đặc biệt thành thạo trong việc suy luận, quá trình vận hành các mô hình được đào tạo, có thể tiết kiệm chi phí hơn về lâu dài. Matt Wood, người phụ trách các sản phẩm trí tuệ nhân tạo tại AWS, giải thích lợi thế của chip của họ: “Bạn đào tạo các mô hình này có thể mỗi tháng một lần. Nhưng bạn có thể đang chạy suy luận chống lại họ hàng chục ngàn lần một giờ. Đó là nơi Inferentia2 thực sự tỏa sáng.”
Động thái này được kỳ vọng sẽ nâng cao vị thế của AWS trong thị trường điện toán đám mây bằng cách cung cấp cho các nhà phát triển một phương tiện hiệu quả và tiết kiệm chi phí hơn để triển khai các mô hình AI trên quy mô lớn.
Nguồn: Investing