deepseek也可以通过程序访问,调用http://localhost:11434/api/generate 接口。
将下面代码保存为deepseek.py
, 并运行:
import requests
# 定义API URL (Ollama在本地11434端口运行)
OLLAMA_URL = "http://localhost:11434/api/generate"
def query_deepseek(prompt):
# 设置请求参数
payload = {
"model": "deepseek-r1", # 使用deepseek-r1模型
"prompt": prompt, # 输入提示词
"stream": False # 不使用流式输出
}
# 发送POST请求到Ollama API
response = requests.post(OLLAMA_URL, json=payload)
# 检查响应状态
if response.status_code == 200:
return response.json().get("response", "No output generated.") # 返回生成的结果,如果没有输出则返回默认消息
else:
return f"Error: {response.text}" # 如果请求失败,返回错误信息
# 测试模型
test_prompt = "给爷讲个勇者斗恶龙的故事"
print(query_deepseek(test_prompt))