Below you will find pages that utilize the taxonomy term “Llm”
October 14, 2024
为 Zed IDE 设置自定义 LLM provider
"\u003cp\u003e在\u003ccode\u003eZed\u003c/code\u003e IDE中,默认只支持以下几种 providers :\u003c/p\u003e\n\u003cul\u003e\n\u003cli\u003e\u003ca href=\"https://zed.dev/docs/assistant/configuration#zed-ai\"\u003eZed AI (Configured by default when signed in)\u003c/a\u003e\u003c/li\u003e\n\u003cli\u003e\u003ca href=\"https://zed.dev/docs/assistant/configuration#anthropic\"\u003eAnthropic\u003c/a\u003e\u003c/li\u003e\n\u003cli\u003e\u003ca href=\"https://zed.dev/docs/assistant/configuration#github-copilot-chat\"\u003eGitHub Copilot Chat\u003c/a\u003e \u003ca href=\"https://zed.dev/docs/assistant/configuration#1\"\u003e1\u003c/a\u003e\u003c/li\u003e\n\u003cli\u003e\u003ca href=\"https://zed.dev/docs/assistant/configuration#google-ai\"\u003eGoogle AI\u003c/a\u003e \u003ca href=\"https://zed.dev/docs/assistant/configuration#1\"\u003e1\u003c/a\u003e\u003c/li\u003e\n\u003cli\u003e\u003ca href=\"https://zed.dev/docs/assistant/configuration#ollama\"\u003eOllama\u003c/a\u003e\u003c/li\u003e\n\u003cli\u003e\u003ca href=\"https://zed.dev/docs/assistant/configuration#openai\"\u003eOpenAI\u003c/a\u003e\u003c/li\u003e\n\u003c/ul\u003e\n\u003cp\u003e这对于国内开发者来说,由于政策原因,想使用起来可能需要借助一些科学上网的方法,这就有点麻烦了。另外国内几个大模型公司也都提供了一定的免费额度的 tokens,如果可以在 Zed 里集成国内几家的大模型,也是一个不错的主意。\u003c/p\u003e\n\u003cp\u003e几个月前试图通过自定义\u003ccode\u003eEndpoint\u003c/code\u003e 的方法绕过官方对使用区域的限制,但一直没有成功。今天重新试了一下仍是无效,本想打算在官方仓库里开发一个自定义provider的功能,就是感觉着有点麻烦,另外更担心个人电脑过旧,编译是一个大问题,于是重新在issue里找到了一个解决办法 \u003ca href=\"https://github.com/zed-industries/zed/pull/13276\"\u003ehttps://github.com/zed-industries/zed/pull/13276\u003c/a\u003e,就是设置起来有点麻烦。\u003c/p\u003e\n\u003cp\u003e本文将其设置方法整理如下。\u003c/p\u003e\n\u003ch1 id=\"配置-settingsjson\"\u003e配置 settings.json\u003c/h1\u003e\n\u003cp\u003e首先配置 settings.json …\u003c/p\u003e"