新探索:简道云接入DeepSeek的方法与实践

楼主
简道云应用场景探索者

> 本期内容

DeepSeek 作为近期备受瞩目的大模型,吸引了众多目光,然而因一些原因,官网在使用时不太稳定,或则说对于请求频次有一些限制,这无疑给我们的使用带来一些不便。

面对这一难题,我们该如何应对?怎样才能更稳定地运用?本期内容中,为大家分享如何在简道云中接入 DeepSeek 的方法与实践,为我们的工作和项目带来更多价值。

> 概念背景

常说的“DeepSeek”一般是指AI大模型,是由中国人工智能公司深度求索推出的两款突破性AI模型,其中V3和R1分别面向不同场景:

DeepSeek-V3 是一个通用型语言模型,就好比是生活里的万能螺丝刀,什么活都能干一点。它用的是 “混合专家”(MoE)架构,就像一个聪明的管家,每次干活时,只需要叫出家里一小部分最能干的人来帮忙,就能把写文章、翻译、聊天这些日常任务高效完成,就像花很少的钱,买到了一个超实用的多功能工具,性价比极高。

DeepSeek-R1 则像是一个专业的精密仪器,特别擅长处理复杂的推理任务。比如解数学难题、编写代码、做逻辑分析。它像一个特别会自学的学霸,直接从海量的学习资料里总结经验,不需要老师额外给它批改作业。它还有个厉害的地方,能把自己的本事 “传授” 给其它工具(支持将能力 “蒸馏” 到其它模型),使其它模型也能获得更优的生成效果。

> 效果演示

 

 

【点击这里查阅视频】

 

> 实现逻辑

在简道云中接入 DeepSeek,主要是为了让用户能更稳定、便捷地使用该大模型,同时也避免在不同的平台之间跳转,以便于企业的统一优化与管理。所以考虑通过开发接口或第三方接口来实现接入,本次分享中使用的为硅基流动的接口,已基于华为云昇腾云服务实现全尺寸、满血版的服务,回复效果与官网近似。

另外,需建立前端页面解决可能出现的响应超时问题。在简道云中,目前大部分场景响应时长限制为 60 秒(不同场景可能会有不同),经测,在结合 DeepSeek R1时,很容易超过这个时间导致响应超时,无法获取到回复信息。通过在前端页面生成所有信息,再回写到简道云,可效避免这个问题,确保顺利得到模型的回复。

>> 技术架构

  1.  
  2. 1. 用户在简道云输入问题用户在简道云的表单中输入想要咨询的问题,比如“2025 年零代码平台趋势分析”。
  3. 2. 信息传送至前端页面中表单中的问题与接口相关参数会通过自建插件被传送到我们单独开发的前端页面中。
  4. 3. 页面调用模型获取答案前端页面根据传递过来的相关信息,调用相应模型的接口获取答案。
  5. 4. 答案回写至简道云表单前端页面获取到答案后,可通过自动回写或手动复制将信息补充到简道云的表单中。
  6.  

>> 自建插件

在本案例中,使用的为自建插件,功能如视频中所述,可实现自动解析参数,以及实现结果回传。 也可使用官方开放的页面弹窗插件,将参数与参数值按规范进行拼接即可。

>> 前端代码

本web页面支持单独使用和第三方调用两种模式。

参数信息如下

URL示例:

https://example.com/api?apiEndpoint=接口地址&apiKey=接口密钥&model=本次模型&userPrompt=本次需求

参数解析:

apiEndpoint:指定实际调用的API端点。
apiKey:用于身份验证的密钥。
model:指定处理请求所使用的模型。
userPrompt:本次所要解决的问题。

 

页面源码如下

微分享_DeepSeek_硅基流动_前端页面_通用版.html (49.16 K)

本版本已基于官方“页面弹窗”插件做优化

已将结果自动回写功能调整为手动复制

 

>> 注意事项

  1.  
  2. 1. 模型调用卡顿
  3. 在测试过程中发现,即使通过硅基流动接口调用 R1 模型,有时也会出现卡顿现象。这可能是由于大量用户同时涌入使用,导致服务器负载过高,或者受限于接口的调用频次等问题。建议在使用时,如果遇到卡顿,可以稍作等待,或者尝试在用户使用低谷时段进行操作。
  4.  
  5. 2. 接口调用失败
  6. 若出现接口调用失败的情况,首先要检查接口密钥是否正确。接口密钥是访问接口的关键凭证,如果输入错误将无法正常调用接口。
  7.  
  1. 3. 信息的安全性
  2. 在本web页面源码中,参数采用的明文方式,在实际工作场景中,可对参数采用发起端加密与接收端解密的方式或者其它方式,以提高安全性,不建议直接进行明文传递。
  1.  

> 硅基流动

硅基流动是生成式AI计算基础设施平台,基于优秀的开源基础模型,提供高性价比的 GenAI 服务,目前已上架多种开源大语言模型、图片生成模型、代码生成模型、向量与重排序模型以及多模态大模型,其中,Qwen2.5(7B)、Llama3.1(8B)等多个大模型API免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。

注册链接:https://cloud.siliconflow.cn/i/3iJN4LbM
通过邀请链接注册,可各获得官方赠送的 2000万 Tokens。

> 场景拓展

基于个人场景,可以尝试一下Cherry Studio,它是一个支持多模型服务的桌面客户端,集成了超过 300 多个大语言模型。在使用过程中,可以随意切换模型来回答问题,充分利用各个大模型的优势解决问题。另外,也支持通过导入文件、目录、网页等方式创建本地知识库,以便在使用大模型时结果更有针对性,更多功能可以自己通过官网了解一下。

官方链接:https://cherry-ai.com/

> 本期总结

本期我们探讨了在简道云中接入 DeepSeek 的方法与实践。从 DeepSeek 两款模型的特点,到接入的实现逻辑,包括设计思路、技术架构、自建插件和前端代码等方面。通过接入 DeepSeek,我们不仅解决了其官网使用不稳定和请求频次限制的问题,还为简道云的应用带来了更强大的智能支持。展望未来,随着技术的不断发展和优化,期待能够进一步挖掘 DeepSeek 与简道云结合的潜力,拓展更多创新应用场景,为企业的数字化转型和业务发展提供更有力的支持,让 AI 技术在实际工作中发挥更大的价值。


> 更多内容


导航:云函数&前端事件&自建插件 内容集

汇总:论坛中发表过的所有帖子


承接简道云技术咨询与应用定制

承接月度技术支持服务

更多沟通交流可添加微信(zmlnow

添加时请备注:简道云


分享扩散:

沙发
发表于 7 天前
感谢张总分享,第一时间学习新的知识,可以探索下让DeepSeek学习简道云,然后客户提出需求,给出解决方案
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

返回顶部 返回列表