Chào mừng bạn đến với Inference
Inference là một cụm GPU phân tán dựa trên Solana, được thiết kế cho suy luận Mô hình Ngôn ngữ Lớn (LLM). Nó cung cấp các API thanh toán nhanh chóng, có thể mở rộng và dựa trên token cho các mô hình như DeepSeek V3 và Llama 3.3.



