V2EX 最热主题
10:06 · Nov 13, 2024 · Wed
V2EX-最热主题
体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了
#v2ex
Telegraph
|
source
Telegraph
体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了
ShadowPower: 现在 Huggingface Chat 上可以在线体验:https://huggingface.co/chat一年前我尝试了绝大多数热门的,开放权重下载的 LLM 。当时得出的结论是:能本地跑的模型都没有实用价值,写代码的能力都非常糟糕。最近发布的 Qwen2.5 Coder 32B 效果还真不错,感觉上比早期 GPT4 还强。只要能自己拆解需求,写出大体实现思路,它就可以给出基本上可用的代码。估计有 GPT4o 的水平。它比我之前认为最好的 DeepSeek v2.5 236B…
Home
Powered by
BroadcastChannel
&
Sepia