G

Grok 4.1 Fast

商业

xAI

性价比之王2M上下文极速

极速推理模型,2M 超长上下文,性价比之王。极低价格提供超长上下文能力,适合大规模应用。

上下文: 2M
输入: $0.2/1M Tokens
输出: $0.5/1M Tokens

核心优势

性价比最高
速度极快
上下文超长
价格最低

模型特性

2M 超长上下文
极速推理
极低价格
高并发支持
实时信息接入
成本效益最高

适用群体

长文档处理
大规模应用
成本敏感项目
快速原型开发

代码示例

cURL

curl -X POST https://api.open-hubs.com/v1/chat/completions \
  -H "Authorization: Bearer $OPENHUBS_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "grok-4.1-fast",
    "messages": [
      {"role": "system", "content": "你是一个专业的AI助手"},
      {"role": "user", "content": "请帮我分析这个问题..."}
    ],
    "temperature": 0.7,
    "max_tokens": 2000
  }'

Python

from openai import OpenAI

client = OpenAI(
    api_key="$OPENHUBS_API_KEY",
    base_url="https://api.open-hubs.com/v1"
)

response = client.chat.completions.create(
    model="grok-4.1-fast",
    messages=[
        {"role": "system", "content": "你是一个专业的AI助手"},
        {"role": "user", "content": "请帮我分析这个问题..."}
    ],
    temperature=0.7,
    max_tokens=2000
)

print(response.choices[0].message.content)

JavaScript / Node.js

import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.OPENHUBS_API_KEY,
  baseURL: 'https://api.open-hubs.com/v1',
});

const response = await client.chat.completions.create({
  model: 'grok-4.1-fast',
  messages: [
    { role: 'system', content: '你是一个专业的AI助手' },
    { role: 'user', content: '请帮我分析这个问题...' },
  ],
  temperature: 0.7,
  max_tokens: 2000,
});

console.log(response.choices[0].message.content);

价格信息

输入价格
$0.2
每百万 Tokens
输出价格
$0.5
每百万 Tokens
官方原厂定价

价格与 xAI 官方定价一致,实时同步更新

上下文窗口

2M Tokens

查看定价方案

模型保障

企业级安全
全球可用
99.9% 可用性
OpenAI 兼容

提供商信息

x
xAI
官方授权