Continue 是一款 VSCode 和 JetBrains 插件,它本身不提供 AI 模型,但它提供了多种接入 AI 模型的方法来实现多种场景下的功能,值得关注的是,它还是一款开源 AI 代码助手,已经在 GitHub 上获得了超过2万个Star。
Continue主要特色
聊天功能(Chat):在VSCode的侧边栏中与AI互动,帮助理解和迭代代码。
自动补全(Autocomplete):实时提供代码补全建议,提升编码效率。
代码编辑(Edit):无需切换文件即可直接修改代码。
快捷操作(Actions):为常见用例提供快捷操作。
除此之外,Continue支持高度的自定义和扩展性,例如通过不同的模型配置(Chat Model和Autocomplete Model)、上下文提供器(Context Providers)以及斜杠命令(Slash Commands)来满足开发者的个性化需求。
deepseek使用方法
运行vscode的打开插件搜索框进行安装,或这直接下载本站提供安装包。安装完成后,Continue的图标将出现在左侧边栏。为了更好的体验,可以将Continue移动到右侧边栏。
点击左侧continue插件图标,配置对应的ollama 和 deepseek-r1模型选择
选择对应的模型之后,就可以开始相关的ai功能
功能特点
AI模型配置
Continue的强大功能离不开其背后的多样化AI模型支持。作为一个开源的AI编程助手,Continue构建了完整的模型生态系统,包括聊天模型(Chat Model)、自动补全模型(Autocomplete Model)、重排序模型(Reranking Model)和嵌入模型(Embeddings Model)。这些模型各司其职,又相互配合,为用户提供全方位的智能编程体验。更重要的是,Continue支持灵活配置各类模型,用户可以根据自己的需求选择不同的模型提供商,打造个性化的AI编程环境。
聊天模型(Chat Model)
聊天模型是一种专为对话场景设计的大型语言模型(LLM),通常包含405B+参数,能够回答复杂问题并生成高质量代码。在Continue中,聊天模型被广泛用于聊天、编辑和快捷操作功能。
推荐的聊天模型包括:
Claude 3.5 Sonnet
GPT-4
Gemini 1.5 Pro
自动补全模型(Autocomplete Model)
自动补全模型专为"中间填充"(Fill-In-The-Middle,FIM)任务设计,能够根据代码的前缀和后缀预测中间的内容。相比聊天模型,自动补全模型的参数量更小(通常为3B),但在特定任务上表现更优。
推荐的自动补全模型包括:
Codestral配合Mistral或Vertex AI
本地运行的Qwen2.5-Coder 1.5B配合Ollama
DeepSeek模型
DeepSeek是目前最火的开源模型之一,既然是全开源方案,自然是要支持配置开源的聊天模型和自动补全模型。
重排序模型(Reranking Model)
重排序模型是一种专门训练用于评估文本相关性的模型。它接收两段文本(通常是用户问题和文档)作为输入,返回一个0到1之间的相关性分数,用于估计该文档对回答问题的帮助程度。与LLM相比,重排序模型通常体积更小、运行速度更快、成本也更低。
在Continue中,重排序模型主要用于@Codebase功能,帮助筛选向量搜索后最相关的代码片段。
推荐的重排序模型包括:
Voyage AI的rerank-2模型:目前最佳的代码重排序模型
Cohere的rerank-english-v3.0:优秀的通用重排序模型
LLM作为重排序器:虽然可行但不推荐,因为成本高且准确度较低
嵌入模型(Embeddings Model)
嵌入模型是专门用于将文本转换为向量表示的AI模型,这些向量可以快速比较以确定文本之间的相似度。与LLM相比,嵌入模型同样具有体积小、速度快、成本低的特点。
在Continue中,嵌入模型在索引过程中生成向量,并被@Codebase功能用于对代码库进行相似度搜索。
推荐的嵌入模型包括:
Voyage AI的voyage-code-3:最佳的在线嵌入模型
Ollama的nomic-embed-text:推荐的本地部署选项
Transformers.js:VSCode默认的嵌入模型,使用all-MiniLM-L6-v2
更新日志
发生了什么变化
@sestinj在#4927中的碰撞
@religiot在#4925中在/gui中从4.5.9添加到4.5.11
在#4892中,@religiot将二进制文件中的tar fs从2.1.1提升到2.1.2
在#4782中,@creditor将苹果操作/代码签名证书从3导入到5
修复#4774:在#4863中添加@mdelder对系统提示的错误处理
@RomneyDa在#4929中修复了yaml上下文长度
在WatsonX中对所有呼叫使用fetchwithRequestOptions。通过@飞溅#4812
在#4753中通过@ferenci84在IntelliJ扩展中实现差异缓存
@RomneyDa在#4939中对UI进行了助理选择和凹口调整
修复#4950中@Jazzcort的计数令牌错误
@religiot在#4953中在/docs中将凹凸图像大小从1.2.0调整到1.2.1
通过@metcalfc在#4959中添加对Docker模型运行器的支持
@sestinj在#4907中创建的初始提供者
LS工具@RomneyDa在#4957
修复(拼写错误):在#4882中使用@uinstinct自定义概述文档
修复:#4941中@aadarshkt使用openAI适配器处理自定义模型
@chezsmithy在#4948中的feat/brocket提示缓存
修复(文档):在#4930中使用@uinstinct更正openai api密钥名
[Doc]上下文拼写错误文件替换为#4928中@YuseiUeno的文件
添加谷歌gemini-2.5-pro-exp-03-25等;@zhyhang在#4915中将硅流提升到再锚模型提供商
#4935中@religiot在/extensions/vscode中添加了Bump tar fs
壮举:在#4870中为@Patrick Erichsen的块添加动画省略号
@metcalfc在#4960中提供的inceptionlabs提供商
文章来自互联网,不代表电脑知识网立场。发布者:全世界失眠,转载请注明出处:https://www.pcxun.com/n/438705.html