跳转到主要内容

热门内容

今日:


总体:


最近浏览:


Chinese, Simplified

category

LLM排行榜提供了不同调优类别中各种大型语言模型(LLM)性能的直接比较。LLM排行榜提供了对不同调优类别和大小的大型语言模型(LLM)的偏好和性能的深入了解。值得注意的是,在每种调整类型中,用户对某些型号都有明确的偏好:

  • 预训练模型(🟢) — 01 ai/Yi-34B在预训练类别中以最高的下载量(69.8k)和点赞量(1.01k)脱颖而出,表明用户在30B大小范围内对该型号有强烈的偏好。预训练模型通常具有很高的参与度,这表明用户重视那些无需额外定制即可使用的模型,但也更喜欢从这些模型开始进行额外的调整。
  • 微调模型(🔶) — Intel/neural-chat-7b-v3-1在7b尺寸类别的微调型号中具有显著的高赞数(255),这表明用户在经过专门的微调过程后发现该型号特别有效或有用。
  • 指令调整模型(⭕) — 与预训练的模型相比,这些模型的参与度较低,但30B类别除外,其中车库bInd/Platypus-30B的下载量相对较高(9.57k)。这可能表明人们对为特定教学环境量身定制的模型有着特殊的兴趣。
  • RL调谐模型(🟦) — RL调谐类别包括在用户参与度方面总体表现最高的模式,meta llama/Lama-2-70b-chat-hf,下载量超过100万,点赞量超过167万。这表明,通过强化学习调整的模型受到了高度重视,可能是因为它们能够产生更适合情境的反应。

数据表明,虽然总体趋势是更大的型号获得更多的下载和点赞,但调整方法也在用户偏好中发挥着重要作用。预训练模型被广泛使用,但人们对通过微调、指令调整或强化学习进一步完善的模型有着明显的兴趣,尤其是当它们属于更大的类别(30B和65B)时,它们被视为更有能力或更通用。

Model Name Tuning Last Updated Downloads Likes Note
Qwen/Qwen-7B Pretrained 12 days ago 13.3k 292 Best 🟢 around 7B

TigerResearch/

tigerbot-13b

-base

Pretrained 8 days ago 6.62k 8 Best 🟢 around 13B
01-ai/Yi-34B Pretrained 2 days ago 69.8k 1.01k Best 🟢 around 30B

TigerResearch/

tigerbot-70b

-base

Pretrained 8 days ago 5.4k 14 Best 🟢 around 65B

GeneZC/

MiniChat-3B

Fine-tuned 4 hours ago 2.19k 25 Best 🔶 around 3B

vihangd/

shearedplats-

2.7b-v2

Instruction-tuned 5 days ago 638 1 Best ⭕ around 3B

maywell/

Synatra-7B-

v0.3-RP

Instruction-tuned 6 days ago 2.79k 9 Best ⭕ around 7B

DanielSc4/

RedPajama-INCITE-Chat-

3B-v1-RL-

LoRA-8bit-test1

RL-tuned Aug 10 N/A N/A Best 🟦 RL-tuned around 3B

garage-bAInd/

Platypus-30B

Instruction-tuned Jul 25 9.57k 18 Best ⭕ around 30B

meta-llama/

Llama-2-7b-

chat-hf

RL-tuned 13 days ago 954k 1.91k Best 🟦 around 7B

meta-llama/

Llama-2-13b-

chat-hf

RL-tuned 13 days ago 498k 705 Best 🟦 around 13B

MayaPH/

GodziLLa2-70B

Instruction-tuned 17 days ago 5.67k 32 Best ⭕ around 65B

Yhyu13/

oasst-rlhf-2-

llama-

30b-7k-steps-hf

RL-tuned Aug 4 4.95k 6 Best 🟦 around 30B

Locutusque/

gpt2-large-

conversational

RL-tuned 7 days ago 5.54k 4 Best 🟦 around 1B

meta-llama/

Llama-2-70b-chat-hf

RL-tuned 13 days ago 1.07M 1.67k Best 🟦 around 65B
tiiuae/falcon-rw-1b Pretrained Jul 12 37.2k 67 Best 🟢 around 1B

stabilityai/

stablelm-3b-4e1t

Pretrained Oct 25 18.1k 241 Best 🟢 around 3B

euclaise/

falcon_1b_stage3_2

Fine-tuned Sep 25 6.43k N/A Best 🔶 around 1B

Aspik101/

trurl-2-13b-pl-instruct_unload

Fine-tuned Aug 18 5.16k 6 Best 🔶 around 13B

upstage/

llama-30b-instruct-2048

Fine-tuned Aug 3 7.58k 103 Best 🔶 around 30B

sequelbox/

StellarBright

Fine-tuned Oct 17 5.49k 42 Best 🔶 around 65B

yulan-team/

YuLan-Chat

-2-13b-fp16

Instruction-tuned Sep 1 4.83k 12 Best ⭕ around 13B

42dot/

42dot_LLM-

SFT-1.3B

Instruction-tuned 29 days ago 7.21k 18 Best ⭕ around 1B

Intel/neural-

chat-7b-v3-1

Fine-tuned 2 days ago 9.22k 255 Best 🔶 around 7B

(Note: The notes column includes emojis to denote the type of tuning: 🟢 for pretrained, 🔶 for fine-tuned, ⭕ for instruction-tuned, and 🟦 for RL-tuned models.)

在生产中使用开源LLM


开源LLM通过开放对高级语言模型的访问(更快的反馈)、促进创新(开放的研究)和实现跨行业的多样化应用(多样化的想法),正在塑造文本生成和生成人工智能的未来。
从Llama 2到Mistral,这些模型为LLM世界带来了新的方法和手段。虽然这些模型表现出非凡的能力,但了解如何克服它们的局限性是至关重要的——与专有LLM相比,性能差异较低,防止偏见的护栏有限,答案不正确,计算成本高。在许多情况下,只有在规模(每天3万代以上)或数据隐私至关重要的情况下,转向开源LLM才有意义。
当您探索这些开源LLM时,请使用Klu.ai来评估针对专有LLM的即时性能,如OpenAI的GPT-4 Turbo、Anthropic的Claude 2.1和谷歌的PaLM2等,以及由Replicate、AWS或Hugging Face托管的开源LLM。
通过利用Klu,您可以利用尖端LLM的力量和能力来构建生成性人工智能应用程序,这些应用程序可以工作并改变您的开发管道。
开源大型语言模型的出现标志着一个新时代,在这个时代,生成人工智能的创新、创造力和进步变得越来越协作和可访问,为我们共同建设智能未来开辟了道路。

本文地址
最后修改
星期日, 三月 24, 2024 - 22:30
Article