|
本帖最后由 WordPress 于 2025-1-1 17:45 编辑
安装与配置
安装 VSCode:访问Visual Studio Code 官方网站,下载并安装适合你操作系统的版本。
安装 cline 插件:打开 VSCode,在扩展市场中搜索 “cline”,找到对应的插件后点击 “安装” 按钮。
获取 DeepSeek API Key:访问DeepSeek 官网,点击 “接入 API”,使用微信或手机号注册账号,注册后系统会自动赠送 10 元体验金。
登录账号后,点击左侧的 “API Keys”,再点击 “创建 API Key”,输入名称后创建,复制生成的 API Key。
配置 cline:在 VSCode 左侧导航栏中找到 cline 图标并点击,在配置中选择 “API Provider” 为 “OpenAI Compatible”
设置 “Base URL” 地址为 “https://api.deepseek.com”,在 “API Key” 输入框中粘贴刚刚复制的 DeepSeek API Key,点击右上角的绿色按钮 “Done”保存配置。
使用方法
创建或打开项目:在 VSCode 中创建一个新的项目文件夹或打开现有的项目文件夹。
调用 DeepSeek 进行代码生成:在编辑器中打开需要编写代码的文件,选中需要生成代码的位置,或者直接在编辑器中输入注释描述代码需求,然后按下快捷键 “Ctrl+Enter” 或点击 cline 图标中的 “Ask” 按钮,cline 会将你的需求发送给 DeepSeek,DeepSeek 会生成相应的代码并显示在编辑器中。
代码补全与智能提示:在编写代码过程中,当你输入部分代码时,cline 会自动调用 DeepSeek 为你提供代码补全和智能提示,帮助你更快地编写代码。
代码检查与修复:如果你编写的代码存在语法错误或逻辑问题,可以选中相关代码,点击 cline 图标中的 “Check” 按钮,DeepSeek 会对代码进行检查,并给出错误提示和修复建议。
重构与优化:当你需要对现有代码进行重构或优化时,选中需要重构的代码块,点击 cline 图标中的 “Refactor” 按钮,DeepSeek 会根据代码的上下文和功能需求,提供重构和优化的建议。
对话式编程:你可以在 cline 的对话窗口中与 DeepSeek 进行对话,询问关于代码的问题、寻求编程思路或讨论技术方案等,DeepSeek 会以对话的形式回答你的问题,并根据对话内容提供相应的代码示例和解决方案。
性能介绍
DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。
百科知识:DeepSeek-V3 在知识类任务(MMLU, MMLU-Pro, GPQA, SimpleQA)上的水平相比前代 DeepSeek-V2.5 显著提升,接近当前表现最好的模型 Claude-3.5-Sonnet-1022。 长文本:长文本测评方面,在DROP、FRAMES 和 LongBench v2 上,DeepSeek-V3 平均表现超越其他模型。 代码:DeepSeek-V3 在算法类代码场景(Codeforces),远远领先于市面上已有的全部非 o1 类模型,并在工程类代码场景(SWE-Bench Verified)逼近 Claude-3.5-Sonnet-1022。 数学:在美国数学竞赛(AIME 2024, MATH)和全国高中数学联赛(CNMO 2024)上,DeepSeek-V3 大幅超过了所有开源闭源模型。 - 中文能力:DeepSeek-V3 与 Qwen2.5-72B 在教育类测评 C-Eval 和代词消歧等评测集上表现相近,但在事实知识 C-SimpleQA 上更为领先。
生成速度提升至 3 倍通过算法和工程上的创新,DeepSeek-V3 的生成吐字速度从 20 TPS 大幅提高至 60 TPS,相比 V2.5 模型实现了 3 倍的提升,为用户带来更加迅速流畅的使用体验。
API 服务价格调整随着性能更强、速度更快的DeepSeek-V3更新上线,API服务定价也将调整为每百万输入tokens 0.5元(缓存命中)/ 2 元(缓存未命中)
每百万输出tokens 8元,以期能够持续地为大家提供更好的模型服务。
与此同时,我们决定为全新模型设置长达 45天的优惠价格体验期:即日起至2025年2月8日,DeepSeek-V3 的 API 服务价格仍然会是大家熟悉的每百万输入tokens 0.1元(缓存命中)/ 1元(缓存未命中),每百万输出tokens 2元,已经注册的老用户和在此期间内注册的新用户均可享受以上优惠价格。
开源权重和本地部署DeepSeek-V3 采用 FP8 训练,并开源了原生 FP8 权重。得益于开源社区的支持,SGLang 和 LMDeploy 第一时间支持了 V3 模型的原生 FP8 推理,同时 TensorRT-LLM 和MindIE则实现了 BF16 推理。此外,为方便社区适配和拓展应用场景,我们提供了从 FP8 到 BF16 的转换脚本。
DeepSeek_V3.pdf
(1.59 MB, 售价: 10 惠米V2金钱)
|
|