Skip to content

API

创建文本对话请求

POST https://models.csdn.net/v1/chat/completions

调用示例

cURL
curl --request POST \
  --url https://models.csdn.net/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '{
  "model": "Deepseek-R1",
  "messages": [
    {
      "role": "user",
      "content": "中国大模型行业2025年将会迎来哪些机遇和挑战?"
    }
  ],
  "stream": false,
  "max_tokens": 512,
  "temperature": 0.7,
  "top_p": 0.7,
  "top_k": 50,
  "frequency_penalty": 0.5,
  "n": 1,
  "response_format": {
    "type": "text"
  }
}'
Python
import requests

url = "https://models.csdn.net/v1/chat/completions"

payload = {
    "model": "Deepseek-R1",
    "messages": [
        {
            "role": "user",
            "content": "中国大模型行业2025年将会迎来哪些机遇和挑战?"
        }
    ],
    "stream": False,
    "max_tokens": 512,
    "temperature": 0.7,
    "top_p": 0.7,
    "top_k": 50,
    "frequency_penalty": 0.5,
    "n": 1,
    "response_format": {"type": "text"}
}
headers = {
    "Authorization": "Bearer <token>",
    "Content-Type": "application/json"
}

response = requests.request("POST", url, json=payload, headers=headers)

print(response.text)
JavaScript
const options = {
  method: 'POST',
  headers: {Authorization: 'Bearer <token>', 'Content-Type': 'application/json'},
  body: '{"model":"Deepseek-R1","messages":[{"role":"user","content":"中国大模型行业2025年将会迎来哪些机遇和挑战?"}],"stream":false,"max_tokens":512,"temperature":0.7,"top_p":0.7,"top_k":50,"frequency_penalty":0.5,"n":1,"response_format":{"type":"text"}}'
};

fetch('https://models.csdn.net/v1/chat/completions', options)
  .then(response => response.json())
  .then(response => console.log(response))
  .catch(err => console.error(err));
InsCodeSDK(Python)
from InsCode import InsCode
client = InsCode(
  api_key="<token>"
)

completion = client.chat.completions.create(
  model="Deepseek-R1",
  messages=[
    {"role": "user", "content": "中国大模型行业2025年将会迎来哪些机遇和挑战?"}
  ]
)

print(completion.model_dump_json())
OpenAISDK(Python)
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(
  base_url="https://models.csdn.net/v1",
  api_key="<token>"
)

completion = client.chat.completions.create(
  model="Deepseek-R1",
  messages=[
    {"role": "user", "content": "中国大模型行业2025年将会迎来哪些机遇和挑战?"}
  ]
)

print(completion.model_dump_json())

Headers

Authorization

请求鉴权,在 headers 中添加 Authorization: Bearer <your api key>

Body

application/json

model

enum<string> required

模型名称。

可选值为:

  • Deepseek-R1
  • Deepseek-V3
  • QwQ-32B
  • Qwen2.5-72B
  • DeepSeek-R1-Distill-Qwen-32B

messages

object[] required

一个由历史消息组成的列表,由系统消息、用户消息和模型消息组成。

message 结构:

  • role enum<string> required

    消息的发出者,可选值为 systemuserassistant

  • content enum<string> required

    消息内容

stream

boolean default: false

是否以流式数据返回。

max_tokens

integer default: 4096

指定模型在生成内容时 token 的最大数量,它定义了生成的上限,但不保证每次都会产生到这个数量。

Required range: 1 < x < 8192

temperature

number default: 0.7

控制生成结果的发散性和集中性。数值越小,越集中;数值越大,越发散。

top_p

number default: 0.7

控制生成结果的随机性。数值越小,随机性越弱;数值越大,随机性越强。

top_k

number default: 50

只从模型认为最可能的 k 个词中选择下一个词。k 值越大,选择范围越广,生成的文本越多样;k 值越小,选择范围越窄,生成的文本越趋向于高概率的词。

frequency_penalty

number default: 0.5

频率惩罚,用于控制模型在生成文本时对重复词汇的使用频率。通过调节这一参数,可以有效地减少文本中重复词汇的出现,从而提升生成内容的多样性与创造性。

n

number default: 1

生成回复的数量。

number default: 0.5

频率惩罚,用于控制模型在生成文本时对重复词汇的使用频率。通过调节这一参数,可以有效地减少文本中重复词汇的出现,从而提升生成内容的多样性与创造性。

response_format

object

指定模型输出格式。

  • type enum<string>

    响应格式的类型。

Response

id

string

本次请求的系统唯一码。

object

enum<string>

对象类型,此处固定是 chat.completion

created

integer

Unix 当前时间戳。

model

string

正在使用的模型名。

choices

object[]

一个由历史消息组成的列表,由系统消息、用户消息和模型消息组成。

choice 结构:

  • message object

    • role string

    • content string

    • reasoning_content string

      仅 deepseek-R1 系列推理模型支持该返回,该部分返回思维链内容,与content同级。在每一轮对话过程中,模型会输出思维链内容(reasoning_content)和最终回答(content)。在下一轮对话中,之前轮输出的思维链内容不会被拼接到上下文中。

  • finish_reason enum<string>

    • 段式 + 流式
      • stop:表示模型返回了完整的输出。
      • length:由于生成长度过长导致停止生成内容.
      • 以 content_filter 开头的表示安全过滤的结果。
    • 仅流式
      • null:表示正在生成内容。

usage

object

用量统计

  • completion_tokens integer

    内容生成的 tokens 数量。

  • prompt_tokens integer

    prompt 使用的 tokens 数量。

  • total_tokens integer

    总 tokens 用量。

该网站在 InsCode 开发并部署