DeepSeek 模型支持
Spring AI 支持 DeepSeek 提供的多种 AI 语言模型。您可以通过 DeepSeek 语言模型进行交互,并基于 DeepSeek 模型创建多语言对话助手。
先决条件
您需要创建 DeepSeek API 密钥以访问 DeepSeek 语言模型。
在 DeepSeek 注册页面创建账户,并在 API 密钥页面生成令牌。
Spring AI 项目定义了名为 spring.ai.deepseek.api-key
的配置属性,应设置为从 API 密钥页面获取的 API 密钥值。
您可在 application.properties
文件中设置此配置属性:
spring.ai.deepseek.api-key=<您的-deepseek-api密钥>
为增强处理敏感信息(如 API 密钥)时的安全性,可使用 Spring 表达式语言(SpEL)引用自定义环境变量:
# 在 application.yml 中
spring:
ai:
deepseek:
api-key: ${DEEPSEEK_API_KEY}
# 在您的环境或 .env 文件中
export DEEPSEEK_API_KEY=<您的-deepseek-api密钥>
也可在应用程序代码中以编程方式设置此配置:
// 从安全源或环境变量检索 API 密钥
String apiKey = System.getenv("DEEPSEEK_API_KEY");
添加仓库和 BOM
Spring AI 构件发布在 Spring Milestone 和 Snapshot 仓库。参考构件仓库部分将这些仓库添加到构建系统。
为帮助依赖管理,Spring AI 提供 BOM(材料清单)确保整个项目使用一致的 Spring AI 版本。参考依赖管理部分将 Spring AI BOM 添加到构建系统。
自动配置
Spring AI 为 DeepSeek 聊天模型提供 Spring Boot 自动配置。要启用它,请将以下依赖项添加到项目的 Maven pom.xml
文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-model-deepseek</artifactId>
</dependency>
或添加到 Gradle build.gradle
文件:
dependencies {
implementation 'org.springframework.ai:spring-ai-starter-model-deepseek'
}
参考依赖管理部分将 Spring AI BOM 添加到构建文件。
聊天属性
重试属性
前缀 spring.ai.retry
用作属性前缀,用于配置 DeepSeek 聊天模型的重试机制。
连接属性
前缀 spring.ai.deepseek
用作属性前缀,用于连接到 DeepSeek。
配置属性
前缀 spring.ai.deepseek.chat
是配置 DeepSeek 聊天模型实现的属性前缀。
您可为 ChatModel 实现覆盖通用的
spring.ai.deepseek.base-url
和spring.ai.deepseek.api-key
。如果设置了spring.ai.deepseek.chat.base-url
和spring.ai.deepseek.chat.api-key
属性,它们将优先于通用属性。这在希望为不同模型使用不同 DeepSeek 账户和不同模型端点时非常有用。所有以
spring.ai.deepseek.chat.options
为前缀的属性可在运行时通过向 Prompt 调用添加请求特定的运行时选项来覆盖。
运行时选项
DeepSeekChatOptions.java
提供模型配置,如使用的模型、温度、频率惩罚等。
启动时,可通过 DeepSeekChatModel(api, options)
构造函数或 spring.ai.deepseek.chat.options.*
属性配置默认选项。
运行时可通过在 Prompt 调用中添加新的请求特定选项来覆盖默认选项。例如为特定请求覆盖默认模型和温度:
ChatResponse response = chatModel.call(
new Prompt(
"生成 5 位著名海盗的名字。请提供不带任何代码块标记(如 ```json```)的 JSON 响应。",
DeepSeekChatOptions.builder()
.withModel(DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue())
.withTemperature(0.8f)
.build()
));
除模型特定的 DeepSeekChatOptions
外,您还可使用通过 ChatOptionsBuilder#builder()
创建的可移植 ChatOptions
实例。
示例控制器(自动配置)
创建新的 Spring Boot 项目,并将 spring-ai-starter-model-deepseek
添加到您的 pom(或 gradle)依赖项。
在 src/main/resources
目录下添加 application.properties
文件以启用和配置 DeepSeek 聊天模型:
spring.ai.deepseek.api-key=您的_API密钥
spring.ai.deepseek.chat.options.model=deepseek-chat
spring.ai.deepseek.chat.options.temperature=0.8
将 api-key
替换为您的 DeepSeek 凭证。
这将创建 DeepSeekChatModel
实现,您可将其注入到您的类中。以下是使用聊天模型进行文本生成的简单 @Controller
类示例:
@RestController
public class ChatController {
private final DeepSeekChatModel chatModel;
@Autowired
public ChatController(DeepSeekChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "讲个笑话") String message) {
return Map.of("generation", chatModel.call(message));
}
@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "讲个笑话") String message) {
var prompt = new Prompt(new UserMessage(message));
return chatModel.stream(prompt);
}
}
聊天前缀补全
聊天前缀补全遵循聊天补全 API,用户提供助手的消息前缀,模型补全消息的剩余部分。
使用前缀补全时,用户必须确保消息列表中的最后一条消息是 DeepSeekAssistantMessage
。
以下是聊天前缀补全的完整 Java 代码示例。在此示例中,我们将助手的消息前缀设置为 "```python\n"
以强制模型输出 Python 代码,并将停止参数设置为 ['
']` 以防止模型的额外解释:
@RestController
public class CodeGenerateController {
private final DeepSeekChatModel chatModel;
@Autowired
public CodeGenerateController(DeepSeekChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generatePythonCode")
public String generate(@RequestParam(value = "message", defaultValue = "请写快速排序代码") String message) {
UserMessage userMessage = new UserMessage(message);
Message assistantMessage = DeepSeekAssistantMessage.prefixAssistantMessage("```python\\n");
Prompt prompt = new Prompt(List.of(userMessage, assistantMessage), ChatOptions.builder().stopSequences(List.of("```")).build());
ChatResponse response = chatModel.call(prompt);
return response.getResult().getOutput().getText();
}
}
推理模型 (deepseek-reasoner)
deepseek-reasoner
是 DeepSeek 开发的推理模型。在提供最终答案前,模型先生成思维链(CoT)以提高响应准确性。我们的 API 提供对 deepseek-reasoner 生成的 CoT 内容的访问,使用户可查看、显示和提炼它。
您可使用 DeepSeekAssistantMessage
获取 deepseek-reasoner 生成的 CoT 内容:
public void deepSeekReasonerExample() {
DeepSeekChatOptions promptOptions = DeepSeekChatOptions.builder()
.model(DeepSeekApi.ChatModel.DEEPSEEK_REASONER.getValue())
.build();
Prompt prompt = new Prompt("9.11 和 9.8,哪个更大?", promptOptions);
ChatResponse response = chatModel.call(prompt);
// 获取 deepseek-reasoner 生成的 CoT 内容(仅在使用 deepseek-reasoner 模型时可用)
DeepSeekAssistantMessage deepSeekAssistantMessage = (DeepSeekAssistantMessage) response.getResult().getOutput();
String reasoningContent = deepSeekAssistantMessage.getReasoningContent();
String text = deepSeekAssistantMessage.getText();
}
推理模型多轮对话
在每轮对话中,模型输出 CoT(reasoning_content
)和最终答案(content
)。在下一轮对话中,前几轮的 CoT 不会拼接到上下文中,如下图所示:
请注意:如果在输入消息序列中包含 reasoning_content
字段,API 将返回 400 错误。因此,在发出 API 请求前应从 API 响应中移除 reasoning_content
字段,如以下 API 示例所示:
public String deepSeekReasonerMultiRoundExample() {
List<Message> messages = new ArrayList<>();
messages.add(new UserMessage("9.11 和 9.8,哪个更大?"));
DeepSeekChatOptions promptOptions = DeepSeekChatOptions.builder()
.model(DeepSeekApi.ChatModel.DEEPSEEK_REASONER.getValue())
.build();
Prompt prompt = new Prompt(messages, promptOptions);
ChatResponse response = chatModel.call(prompt);
DeepSeekAssistantMessage deepSeekAssistantMessage = (DeepSeekAssistantMessage) response.getResult().getOutput();
String reasoningContent = deepSeekAssistantMessage.getReasoningContent();
String text = deepSeekAssistantMessage.getText();
messages.add(new AssistantMessage(Objects.requireNonNull(text)));
messages.add(new UserMessage("'strawberry' 这个单词中有几个 R?"));
Prompt prompt2 = new Prompt(messages, promptOptions);
ChatResponse response2 = chatModel.call(prompt2);
DeepSeekAssistantMessage deepSeekAssistantMessage2 = (DeepSeekAssistantMessage) response2.getResult().getOutput();
String reasoningContent2 = deepSeekAssistantMessage2.getReasoningContent();
return deepSeekAssistantMessage2.getText();
}
手动配置
DeepSeekChatModel
实现 ChatModel
和 StreamingChatModel
,并使用低级 DeepSeekApi
客户端连接到 DeepSeek 服务。
将 spring-ai-deepseek
依赖项添加到项目的 Maven pom.xml
文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-deepseek</artifactId>
</dependency>
或添加到 Gradle build.gradle
文件:
dependencies {
implementation 'org.springframework.ai:spring-ai-deepseek'
}
参考依赖管理部分将 Spring AI BOM 添加到构建文件。
接下来,创建 DeepSeekChatModel
并将其用于文本生成:
var deepSeekApi = new DeepSeekApi(System.getenv("DEEPSEEK_API_KEY"));
var chatModel = new DeepSeekChatModel(deepSeekApi, DeepSeekChatOptions.builder()
.withModel(DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue())
.withTemperature(0.4f)
.withMaxTokens(200)
.build());
ChatResponse response = chatModel.call(
new Prompt("生成 5 位著名海盗的名字。"));
// 或使用流式响应
Flux<ChatResponse> streamResponse = chatModel.stream(
new Prompt("生成 5 位著名海盗的名字。"));
DeepSeekChatOptions
为聊天请求提供配置信息。DeepSeekChatOptions.Builder
是流畅的选项构建器。
低级 DeepSeekApi 客户端
DeepSeekApi
是 DeepSeek API 的轻量级 Java 客户端。
以下是编程使用 API 的简单片段:
DeepSeekApi deepSeekApi =
new DeepSeekApi(System.getenv("DEEPSEEK_API_KEY"));
ChatCompletionMessage chatCompletionMessage =
new ChatCompletionMessage("你好世界", Role.USER);
// 同步请求
ResponseEntity<ChatCompletion> response = deepSeekApi.chatCompletionEntity(
new ChatCompletionRequest(List.of(chatCompletionMessage), DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue(), 0.7f, false));
// 流式请求
Flux<ChatCompletionChunk> streamResponse = deepSeekApi.chatCompletionStream(
new ChatCompletionRequest(List.of(chatCompletionMessage), DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue(), 0.7f, true));
遵循 DeepSeekApi.java
的 JavaDoc 获取更多信息。
DeepSeekApi 示例DeepSeekApiIT.java
测试提供了一些使用轻量级库的通用示例。
评论区