一行代码接入通义千问,比官方价格最高省 20%,注册即送 ¥5 体验额度
服务可用率
比官方更优惠
极速完成接入
新加坡节点,国内直连毫秒级响应,确保您的 AI 应用流畅如丝。
按量计费,无任何隐藏费用。充多少用多少,财务开支清晰可见。
只需改一行 base_url,现有代码零改造。完美支持 LangChain 等主流框架。
通义千问全系列,包括 qwen-flash、plus、max 以及最新的 qwq 系列。
| 模型 | 输入价格 (/1M tokens) | 输出价格 (/1M tokens) |
|---|---|---|
| qwen-flash | ¥0.20 | ¥2.00 |
| qwen-turbo | ¥0.40 | ¥4.00 |
| qwen-plus 推荐 | ¥1.00 | ¥2.50 |
| qwen-max | ¥3.00 | ¥12.00 |
| qwq-plus | ¥2.00 | ¥5.00 |
| 套餐 | 充值额 | 赠送额度 | 等效折扣 |
|---|---|---|---|
| 体验包 | ¥10 | - | 无折扣 |
| 基础包 | ¥50 | ¥5 | 9 折 |
| 标准包 | ¥100 | ¥15 | 8.5 折 |
| 专业包 | ¥300 | ¥60 | 8 折 |
| 企业包 | ¥1000 | ¥250 | 7.5 折 |
在 AIProxy 注册并获取专属 API Key
将 API 基址改为 https://aiproxy.com.cn/v1
充值后即可无缝调用通义千问大模型
from openai import OpenAI client = OpenAI( api_key="your-api-key", base_url="https://aiproxy.com.cn/v1" ) # 像使用 OpenAI 一样调用通义千问 response = client.chat.completions.create( model="qwen-plus", messages=[{"role": "user", "content": "你好!"}] )