本文最后更新于 2025-03-17,墨迹未干时,知识正鲜活。随着时间推移,文章部分内容可能需要重新着墨,请您谅解。Contact

LLM API使用场景示例

前言:AI的应用其实和传统互联网技术产品的应用差不多,大致是两种方式——官网使用和API调用,二者区别可以简要概括为:官网是人工交互,用户导向;而 API 是批处理、互联式,开发者导向。二者应用场景不一样。

下面会列举一些简单的API应用场景示例,简单到你只需要选择一个Client客户端,填入你的API接口地址和鉴权秘钥即可使用,实际上现在AI相关技术发展迭代速度相当快,基础技术也越来越完善(RAG,MCP, Workflow等等),如果希望更加深入地使用API,建议阅读这份基础手册:https://apiai.apifox.cn/api-162417537

PS:本文有时间会持续更新新的场景示例,同时博客内的 AI TAG 也会更新AI相关技术与开源项目。


一、在 Cherry Studio 中使用

1. 下载 Cherry Studio

2. 配置

首先获取API Key 主要有三种获取途径:官方,API中转站,以及AI聚合平台。- “官方”指的就是你直接在OpenAI, Google, Claude和Deepseek等AI公司的API站点购买,比如:OpenAI的 https://platform.openai.com, Google的 https://console.cloud.google.com, Deepseek的 https://platform.deepseek.com 等。

  • “AI聚合平台” 指的是Poe, Siliconflow, Openrouter这样将许多系列的AI模型聚合到一个站点的平台,通过发售积分或点数来统一计价标准,用户充值的时候得到对应的积分,消费时则根据模型的权重和单价来计费。这整个过程类似于超市里的混合糖果,将不同单价的糖果混合在一起售卖,最后标价的时候按照不同价格的糖果的单价和权重来计费。
  • “API中转站"指的则是利用One API、New API等AI模型接口管理与分发系统,将不同API请求格式的大模型转为统一格式调用(大部分情况下是OpenAI通用格式)的站点,因为API站的LLM API格式都被统一为OpenAI格式,因此做到兼容OpenAI官方SDK库及大多数开源LLM项目。

接着点击左下角的设置,在模型服务中选择【OpenAI】(当然其他的服务也可以配置,只要接口地址和密钥正确就可以调用)

屏幕截图 2025-03-17 223730.png

接着输入API秘钥和API地址(Baseurl),然后可以点击“管理模型”来增减模型,目前CherryStudio已经支持通过/models来获取模型列表(仅限OpenAI格式),因此即使不是OpenAI公司的模型,只要接口格式是OpenAI格式并且模型名与服务端对应得上,就可以一键获取模型并调用。

3. 模型服务使用

3.1 使用语言模型服务聊天

  1. 点击左侧菜单栏的“对话”按钮
  2. 在输入框内输入文字即可开始聊天
  3. 可以选择顶部菜单中的模型名字切换模型

3.2 使用嵌入模型服务创建知识库并使用

3.2.1 创建知识库

  1. 知识库入口:在 CherryStudio左侧工具栏,点击知识库图标,即可进入管理页面;
  2. 添加知识库:点击添加,开始创建知识库;
  3. 命名:输入知识库的名称并添加嵌入模型,以 bge-m3为例,即可完成创建。

3.2.2 添加文件并向量化

  1. 添加文件:点击添加文件的按钮,打开文件选择;
  2. 选择文件:选择支持的文件格式,如 pdf,docx,pptx,xlsx,txt,md,mdx 等,并打开;
  3. 向量化:系统会自动进行向量化处理,当显示完成时(绿色✓),代表向量化已完成。

3.2.3 添加多种来源的数据

CherryStudio 支持多种添加数据的方式:

  1. 文件夹目录:可以添加整个文件夹目录,该目录下支持格式的文件会被自动向量化;
  2. 网址链接:支持网址 url,如https://docs.siliconflow.cn/introduction
  3. 站点地图:支持 xml 格式的站点地图,如https://docs.siliconflow.cn/sitemap.xml
  4. 纯文本笔记:支持输入纯文本的自定义内容。

3.2.4 搜索知识库

当文件等资料向量化完成后,即可进行查询:

  1. 点击页面下方的搜索知识库按钮;
  2. 输入查询的内容;
  3. 呈现搜索的结果;
  4. 并显示该条结果的匹配分数。

3.2.5 对话中引用知识库生成回复

  1. 创建一个新的话题,在对话工具栏中,点击知识库,会展开已经创建的知识库列表,选择需要引用的知识库;
  2. 输入并发送问题,模型即返回通过检索结果生成的答案 ;
  3. 同时,引用的数据来源会附在答案下方,可快捷查看源文件。

二、在 NextChat 中使用

  1. 获取API key

  2. 随便找一个NextChat网页端,自己部署或用我的魔改版都行:https://neat-chat.vercel.app/

    点击页面左下角的“设置”按钮,找到其中的“自定义接口”(Custom Endpoint)选项并开启。然后填入参数:

  • 接口地址(EndpointBaseUrl): 默认是/api/openai,修改为 https://API站地址/v1/chat/completions
  • API Key: 输入“ API 密钥页签 ”生成的 API Key

PS: 以上两个参数是必填项,如果使用的是非官方API,需要带https://和路径,/v1/chat/completions 是 标准完整OpenAI接口路径,但某些情境下不需要使用完整路径,使用v1路径即可。

  1. 此外nextchat中还支持自定义模型名和用webdav同步保存数据,只要模型接口兼容了OpenAI格式,就可以通过自定义模型名调用特定模型,比如将Dify中的agent接入new-api后通过自定义模型名调用。

三、沉浸式翻译中使用

首先安装沉浸式翻译扩展


添加服务


API接口地址填写 https://API地址/v1/chat/completions

API Key填获取的API KEY即可


输入接口地址和密钥


PS:沉浸式翻译需要考虑API的 RPM(每分钟请求数)和 TPM(每分钟tokens 数)等参数的限制,沉浸式翻译这种高频低token的调用方式不适合所有LLM模型,因此综合考虑翻译效果、翻译速度和价格,最合适沉浸式翻译的LLM模型是gpt4o-mini, gpt4o, 如果需要更好的高token翻译任务,则可以使用deepseek r1, gemini exp, o1 mini等模型。

四、 chatgpt-web-midjourney-proxy中使用

我搭建的成品:https://www.273299033.xyz/

流程:设置-服务端-填入openai接口地址和key