外观
API
创建文本对话请求
POST
https://models.csdn.net/v1/chat/completions
调用示例
cURL
curl --request POST \
--url https://models.csdn.net/v1/chat/completions \
--header 'Authorization: Bearer <token>' \
--header 'Content-Type: application/json' \
--data '{
"model": "Deepseek-R1",
"messages": [
{
"role": "user",
"content": "中国大模型行业2025年将会迎来哪些机遇和挑战?"
}
],
"stream": false,
"max_tokens": 512,
"temperature": 0.7,
"top_p": 0.7,
"top_k": 50,
"frequency_penalty": 0.5,
"n": 1,
"response_format": {
"type": "text"
}
}'
Python
import requests
url = "https://models.csdn.net/v1/chat/completions"
payload = {
"model": "Deepseek-R1",
"messages": [
{
"role": "user",
"content": "中国大模型行业2025年将会迎来哪些机遇和挑战?"
}
],
"stream": False,
"max_tokens": 512,
"temperature": 0.7,
"top_p": 0.7,
"top_k": 50,
"frequency_penalty": 0.5,
"n": 1,
"response_format": {"type": "text"}
}
headers = {
"Authorization": "Bearer <token>",
"Content-Type": "application/json"
}
response = requests.request("POST", url, json=payload, headers=headers)
print(response.text)
JavaScript
const options = {
method: 'POST',
headers: {Authorization: 'Bearer <token>', 'Content-Type': 'application/json'},
body: '{"model":"Deepseek-R1","messages":[{"role":"user","content":"中国大模型行业2025年将会迎来哪些机遇和挑战?"}],"stream":false,"max_tokens":512,"temperature":0.7,"top_p":0.7,"top_k":50,"frequency_penalty":0.5,"n":1,"response_format":{"type":"text"}}'
};
fetch('https://models.csdn.net/v1/chat/completions', options)
.then(response => response.json())
.then(response => console.log(response))
.catch(err => console.error(err));
InsCodeSDK(Python)
from InsCode import InsCode
client = InsCode(
api_key="<token>"
)
completion = client.chat.completions.create(
model="Deepseek-R1",
messages=[
{"role": "user", "content": "中国大模型行业2025年将会迎来哪些机遇和挑战?"}
]
)
print(completion.model_dump_json())
OpenAISDK(Python)
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(
base_url="https://models.csdn.net/v1",
api_key="<token>"
)
completion = client.chat.completions.create(
model="Deepseek-R1",
messages=[
{"role": "user", "content": "中国大模型行业2025年将会迎来哪些机遇和挑战?"}
]
)
print(completion.model_dump_json())
Headers
Authorization
请求鉴权,在 headers 中添加 Authorization
: Bearer <your api key>
Body
application/json
model
enum<string>
required
模型名称。
可选值为:
- Deepseek-R1
- Deepseek-V3
- QwQ-32B
- Qwen2.5-72B
- DeepSeek-R1-Distill-Qwen-32B
messages
object[]
required
一个由历史消息组成的列表,由系统消息、用户消息和模型消息组成。
message 结构:
role enum<string>
required
消息的发出者,可选值为
system
、user
、assistant
content enum<string>
required
消息内容
stream
boolean
default: false
是否以流式数据返回。
max_tokens
integer
default: 4096
指定模型在生成内容时 token 的最大数量,它定义了生成的上限,但不保证每次都会产生到这个数量。
Required range: 1 < x < 8192
temperature
number
default: 0.7
控制生成结果的发散性和集中性。数值越小,越集中;数值越大,越发散。
top_p
number
default: 0.7
控制生成结果的随机性。数值越小,随机性越弱;数值越大,随机性越强。
top_k
number
default: 50
只从模型认为最可能的 k
个词中选择下一个词。k
值越大,选择范围越广,生成的文本越多样;k
值越小,选择范围越窄,生成的文本越趋向于高概率的词。
frequency_penalty
number
default: 0.5
频率惩罚,用于控制模型在生成文本时对重复词汇的使用频率。通过调节这一参数,可以有效地减少文本中重复词汇的出现,从而提升生成内容的多样性与创造性。
n
number
default: 1
生成回复的数量。
number
default: 0.5
频率惩罚,用于控制模型在生成文本时对重复词汇的使用频率。通过调节这一参数,可以有效地减少文本中重复词汇的出现,从而提升生成内容的多样性与创造性。
response_format
object
指定模型输出格式。
type enum<string>
响应格式的类型。
Response
id
string
本次请求的系统唯一码。
object
enum<string>
对象类型,此处固定是 chat.completion
。
created
integer
Unix 当前时间戳。
model
string
正在使用的模型名。
choices
object[]
一个由历史消息组成的列表,由系统消息、用户消息和模型消息组成。
choice 结构:
message
object
role
string
content
string
reasoning_content
string
仅 deepseek-R1 系列推理模型支持该返回,该部分返回思维链内容,与content同级。在每一轮对话过程中,模型会输出思维链内容(reasoning_content)和最终回答(content)。在下一轮对话中,之前轮输出的思维链内容不会被拼接到上下文中。
finish_reason
enum<string>
- 段式 + 流式
- stop:表示模型返回了完整的输出。
- length:由于生成长度过长导致停止生成内容.
- 以 content_filter 开头的表示安全过滤的结果。
- 仅流式
- null:表示正在生成内容。
- 段式 + 流式
usage
object
用量统计
completion_tokens
integer
内容生成的 tokens 数量。
prompt_tokens
integer
prompt 使用的 tokens 数量。
total_tokens
integer
总 tokens 用量。