Добро пожаловать в Inference
Inference - это распределенный GPU-кластер на базе Solana, предназначенный для вывода больших языковых моделей (LLM). Он предоставляет быстрые, масштабируемые API с оплатой на основе токенов для таких моделей, как DeepSeek V3 и Llama 3.3.



