旨在记录全球开源开放大模型发展情况,欢迎提供
- 线索
- 材料
- PR
- Issue
序号 | 名称 | 参数规模 | 数据规模 | 说明 |
---|---|---|---|---|
1 | LLaMA | 7B,13B,30B,65B | 1.4T | Meta,代码开源,模型“泄露”,不可商用 |
2 | OPT | 6.7B,13B,30B,66B,175B | ||
3 | BLOOM | 3B,7.1B,176B | 366B | 可商用,最为宽松 |
4 | GALACTICA | 6.7B,30B,120B | ||
5 | Falcon | 7B,40B | ||
6 | MOSS | 16B | ||
7 | ChatGLM | 6B | ||
8 | StableLM | 3B,7B | 800B | |
9 | baichuan | 7B | 1.2T | 开放,商用需授权 |
10 | Aquila | 7B,33B | 悟道·天鹰 | |
11 | RedPajama | 3B,7B | ||
12 | GPT-NeoX | 20B | 800GB的The Pile数据集 | |
13 | OpenLLaMA | 3B,7B,13B | 1T | |
14 | MPT | 7B,30B | 1T | |
15 | Pythia | 2.8B,6.9B,12B | 300B |
- WizardLM
- Alpaca
- Vicuna
- Guanaco