Inference へようこそ InferenceはSolanaベースの分散型GPUクラスターで、大規模言語モデル(LLM)推論用に設計されています。DeepSeek V3やLlama 3.3などのモデルに対して、高速でスケーラブルなトークンベースの支払いAPIを提供します。