欢迎来到 Inference Inference是一个基于Solana的分布式GPU集群,专为大型语言模型(LLM)推理而设计。它为DeepSeek V3和Llama 3.3等模型提供快速、可扩展且基于代币支付的API。