类的使用
com.cdkjframework.ai.core.Message
使用Message的程序包
程序包
说明
wiki-ai主要用于AI大模型的封装,只需要对AI模型最基本的设置,即可调用AI大模型。
wiki-ai 核心基础类
doubao 的封装实现
grok 的封装实现
openai 的封装实现
-
com.cdkjframework.ai中Message的使用
类型变量类型为Message的com.cdkjframework.ai中的方法参数 -
com.cdkjframework.ai.core中Message的使用
返回变量类型为Message的类型的com.cdkjframework.ai.core中的方法类型变量类型为Message的com.cdkjframework.ai.core中的方法参数 -
com.cdkjframework.ai.model.deepseek.impl中Message的使用
类型变量类型为Message的com.cdkjframework.ai.model.deepseek.impl中的方法参数 -
com.cdkjframework.ai.model.doubao中Message的使用
类型变量类型为Message的com.cdkjframework.ai.model.doubao中的方法参数修饰符和类型方法说明批量推理 Chat 注意:调用该方法时,配置config中的model为您创建的批量推理接入点(Endpoint)ID。应用(Bot) config中model设置为您创建的应用IDvoid
DouBaoService.botsChat
(List<Message> messages, Consumer<ResponseBuilder> callback) 应用(Bot)-SSE流式输出 config中model设置为您创建的应用IDDouBaoService.chatContext
(List<Message> messages, String contextId) 上下文缓存对话: 向大模型发起带上下文缓存的请求 注意:配置config中的model可以为您创建的推理接入点(Endpoint)ID,也可以是支持chat的modelvoid
DouBaoService.chatContext
(List<Message> messages, String contextId, Consumer<ResponseBuilder> callback) 上下文缓存对话-SSE流式输出 注意:配置config中的model可以为您创建的推理接入点(Endpoint)ID,也可以是支持chat的modeldefault String
DouBaoService.createContext
(List<Message> messages) 创建上下文缓存: 创建上下文缓存,获得缓存 id字段后,在上下文缓存对话 API中使用。DouBaoService.createContext
(List<Message> messages, String mode) 创建上下文缓存: 创建上下文缓存,获得缓存 id字段后,在上下文缓存对话 API中使用。 -
com.cdkjframework.ai.model.doubao.impl中Message的使用
类型变量类型为Message的com.cdkjframework.ai.model.doubao.impl中的方法参数修饰符和类型方法说明批量推理 Chat 注意:调用该方法时,配置config中的model为您创建的批量推理接入点(Endpoint)ID。应用(Bot) config中model设置为您创建的应用IDvoid
DouBaoServiceImpl.botsChat
(List<Message> messages, Consumer<ResponseBuilder> callback) 应用(Bot)-SSE流式输出 config中model设置为您创建的应用ID对话 messages 可以由当前对话组成的消息列表,可以设置role,content。void
DouBaoServiceImpl.chat
(List<Message> messages, Consumer<ResponseBuilder> callback) 对话-SSE 流式输出 messages 可以由当前对话组成的消息列表,可以设置role,content。DouBaoServiceImpl.chatContext
(List<Message> messages, String contextId) 上下文缓存对话: 向大模型发起带上下文缓存的请求 注意:配置config中的model可以为您创建的推理接入点(Endpoint)ID,也可以是支持chat的modelvoid
DouBaoServiceImpl.chatContext
(List<Message> messages, String contextId, Consumer<ResponseBuilder> callback) 上下文缓存对话-SSE流式输出 注意:配置config中的model可以为您创建的推理接入点(Endpoint)ID,也可以是支持chat的modelDouBaoServiceImpl.createContext
(List<Message> messages, String mode) 创建上下文缓存: 创建上下文缓存,获得缓存 id字段后,在上下文缓存对话 API中使用。 -
com.cdkjframework.ai.model.grok中Message的使用
类型变量类型为Message的com.cdkjframework.ai.model.grok中的方法参数 -
com.cdkjframework.ai.model.grok.impl中Message的使用
类型变量类型为Message的com.cdkjframework.ai.model.grok.impl中的方法参数修饰符和类型方法说明对话 messages 可以由当前对话组成的消息列表,可以设置role,content。void
GrokServiceImpl.chat
(List<Message> messages, Consumer<ResponseBuilder> callback) 对话-SSE 流式输出 messages 可以由当前对话组成的消息列表,可以设置role,content。创建消息回复void
GrokServiceImpl.message
(List<Message> messages, int maxToken, Consumer<ResponseBuilder> callback) 创建消息回复-SSE流式输出 -
com.cdkjframework.ai.model.openai中Message的使用
类型变量类型为Message的com.cdkjframework.ai.model.openai中的方法参数修饰符和类型方法说明default String
OpenaiService.chatReasoning
(List<Message> messages) 推理chat 支持o3-mini和o1OpenaiService.chatReasoning
(List<Message> messages, String reasoningEffort) 推理chat 支持o3-mini和o1void
OpenaiService.chatReasoning
(List<Message> messages, String reasoningEffort, Consumer<ResponseBuilder> callback) 推理chat-SSE流式输出 支持o3-mini和o1default void
OpenaiService.chatReasoning
(List<Message> messages, Consumer<ResponseBuilder> callback) 推理chat-SSE流式输出 支持o3-mini和o1 -
com.cdkjframework.ai.model.openai.impl中Message的使用
类型变量类型为Message的com.cdkjframework.ai.model.openai.impl中的方法参数修饰符和类型方法说明聊天void
OpenaiServiceImpl.chat
(List<Message> messages, Consumer<ResponseBuilder> callback) 聊天OpenaiServiceImpl.chatReasoning
(List<Message> messages, String reasoningEffort) 推理chat 支持o3-mini和o1void
OpenaiServiceImpl.chatReasoning
(List<Message> messages, String reasoningEffort, Consumer<ResponseBuilder> callback) 推理chat-SSE流式输出 支持o3-mini和o1