category
LLM排行榜提供了不同调优类别中各种大型语言模型(LLM)性能的直接比较。LLM排行榜提供了对不同调优类别和大小的大型语言模型(LLM)的偏好和性能的深入了解。值得注意的是,在每种调整类型中,用户对某些型号都有明确的偏好:
- 预训练模型(🟢) — 01 ai/Yi-34B在预训练类别中以最高的下载量(69.8k)和点赞量(1.01k)脱颖而出,表明用户在30B大小范围内对该型号有强烈的偏好。预训练模型通常具有很高的参与度,这表明用户重视那些无需额外定制即可使用的模型,但也更喜欢从这些模型开始进行额外的调整。
- 微调模型(🔶) — Intel/neural-chat-7b-v3-1在7b尺寸类别的微调型号中具有显著的高赞数(255),这表明用户在经过专门的微调过程后发现该型号特别有效或有用。
- 指令调整模型(⭕) — 与预训练的模型相比,这些模型的参与度较低,但30B类别除外,其中车库bInd/Platypus-30B的下载量相对较高(9.57k)。这可能表明人们对为特定教学环境量身定制的模型有着特殊的兴趣。
- RL调谐模型(🟦) — RL调谐类别包括在用户参与度方面总体表现最高的模式,meta llama/Lama-2-70b-chat-hf,下载量超过100万,点赞量超过167万。这表明,通过强化学习调整的模型受到了高度重视,可能是因为它们能够产生更适合情境的反应。
数据表明,虽然总体趋势是更大的型号获得更多的下载和点赞,但调整方法也在用户偏好中发挥着重要作用。预训练模型被广泛使用,但人们对通过微调、指令调整或强化学习进一步完善的模型有着明显的兴趣,尤其是当它们属于更大的类别(30B和65B)时,它们被视为更有能力或更通用。
Model Name | Tuning | Last Updated | Downloads | Likes | Note |
---|---|---|---|---|---|
Qwen/Qwen-7B | Pretrained | 12 days ago | 13.3k | 292 | Best 🟢 around 7B |
TigerResearch/ tigerbot-13b -base |
Pretrained | 8 days ago | 6.62k | 8 | Best 🟢 around 13B |
01-ai/Yi-34B | Pretrained | 2 days ago | 69.8k | 1.01k | Best 🟢 around 30B |
TigerResearch/ tigerbot-70b -base |
Pretrained | 8 days ago | 5.4k | 14 | Best 🟢 around 65B |
GeneZC/ MiniChat-3B |
Fine-tuned | 4 hours ago | 2.19k | 25 | Best 🔶 around 3B |
vihangd/ shearedplats- 2.7b-v2 |
Instruction-tuned | 5 days ago | 638 | 1 | Best ⭕ around 3B |
maywell/ Synatra-7B- v0.3-RP |
Instruction-tuned | 6 days ago | 2.79k | 9 | Best ⭕ around 7B |
DanielSc4/ RedPajama-INCITE-Chat- 3B-v1-RL- LoRA-8bit-test1 |
RL-tuned | Aug 10 | N/A | N/A | Best 🟦 RL-tuned around 3B |
garage-bAInd/ Platypus-30B |
Instruction-tuned | Jul 25 | 9.57k | 18 | Best ⭕ around 30B |
meta-llama/ Llama-2-7b- chat-hf |
RL-tuned | 13 days ago | 954k | 1.91k | Best 🟦 around 7B |
meta-llama/ Llama-2-13b- chat-hf |
RL-tuned | 13 days ago | 498k | 705 | Best 🟦 around 13B |
MayaPH/ GodziLLa2-70B |
Instruction-tuned | 17 days ago | 5.67k | 32 | Best ⭕ around 65B |
Yhyu13/ oasst-rlhf-2- llama- 30b-7k-steps-hf |
RL-tuned | Aug 4 | 4.95k | 6 | Best 🟦 around 30B |
Locutusque/ gpt2-large- conversational |
RL-tuned | 7 days ago | 5.54k | 4 | Best 🟦 around 1B |
meta-llama/ Llama-2-70b-chat-hf |
RL-tuned | 13 days ago | 1.07M | 1.67k | Best 🟦 around 65B |
tiiuae/falcon-rw-1b | Pretrained | Jul 12 | 37.2k | 67 | Best 🟢 around 1B |
stabilityai/ stablelm-3b-4e1t |
Pretrained | Oct 25 | 18.1k | 241 | Best 🟢 around 3B |
euclaise/ falcon_1b_stage3_2 |
Fine-tuned | Sep 25 | 6.43k | N/A | Best 🔶 around 1B |
Aspik101/ trurl-2-13b-pl-instruct_unload |
Fine-tuned | Aug 18 | 5.16k | 6 | Best 🔶 around 13B |
upstage/ llama-30b-instruct-2048 |
Fine-tuned | Aug 3 | 7.58k | 103 | Best 🔶 around 30B |
sequelbox/ StellarBright |
Fine-tuned | Oct 17 | 5.49k | 42 | Best 🔶 around 65B |
yulan-team/ YuLan-Chat -2-13b-fp16 |
Instruction-tuned | Sep 1 | 4.83k | 12 | Best ⭕ around 13B |
42dot/ 42dot_LLM- SFT-1.3B |
Instruction-tuned | 29 days ago | 7.21k | 18 | Best ⭕ around 1B |
Intel/neural- chat-7b-v3-1 |
Fine-tuned | 2 days ago | 9.22k | 255 | Best 🔶 around 7B |
(Note: The notes column includes emojis to denote the type of tuning: 🟢 for pretrained, 🔶 for fine-tuned, ⭕ for instruction-tuned, and 🟦 for RL-tuned models.)
在生产中使用开源LLM
开源LLM通过开放对高级语言模型的访问(更快的反馈)、促进创新(开放的研究)和实现跨行业的多样化应用(多样化的想法),正在塑造文本生成和生成人工智能的未来。
从Llama 2到Mistral,这些模型为LLM世界带来了新的方法和手段。虽然这些模型表现出非凡的能力,但了解如何克服它们的局限性是至关重要的——与专有LLM相比,性能差异较低,防止偏见的护栏有限,答案不正确,计算成本高。在许多情况下,只有在规模(每天3万代以上)或数据隐私至关重要的情况下,转向开源LLM才有意义。
当您探索这些开源LLM时,请使用Klu.ai来评估针对专有LLM的即时性能,如OpenAI的GPT-4 Turbo、Anthropic的Claude 2.1和谷歌的PaLM2等,以及由Replicate、AWS或Hugging Face托管的开源LLM。
通过利用Klu,您可以利用尖端LLM的力量和能力来构建生成性人工智能应用程序,这些应用程序可以工作并改变您的开发管道。
开源大型语言模型的出现标志着一个新时代,在这个时代,生成人工智能的创新、创造力和进步变得越来越协作和可访问,为我们共同建设智能未来开辟了道路。
- 登录 发表评论
- 292 次浏览
最新内容
- 2 weeks 2 days ago
- 3 weeks 3 days ago
- 3 weeks 6 days ago
- 3 weeks 6 days ago
- 4 weeks 2 days ago
- 4 weeks 2 days ago
- 1 month ago
- 1 month ago
- 1 month ago
- 1 month ago