Skip to content

Commit 661a80b

Browse files
committed
update v1.2 chinese-llama and openllama v0.1
1 parent cda16f6 commit 661a80b

File tree

4 files changed

+50
-12
lines changed

4 files changed

+50
-12
lines changed

README.md

Lines changed: 50 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -12,7 +12,7 @@
1212
模型基于 [TencentPretrain](https://github.com/Tencent/TencentPretrain) 预训练框架实现,在 32 * A100 GPU 上全参数训练(Full-tuning), 将陆续开放 7B、13B、33B、65B 规模的中文模型权重。
1313
中文基础模型以 LLaMA 为底座,利用中文和中英平行增量预训练,将它在英文上强大语言能力迁移到中文上。进一步,项目汇总了目前公开的多语言指令数据,对中文模型进行了大规模指令跟随训练,实现了 Linly-ChatFlow 对话模型。
1414

15-
此外,本项目还公开从头训练的 [**Linly-OpenLLaMA**](https://github.com/CVI-SZU/Linly/wiki/Linly-OpenLLaMA) 模型,在 1TB 中英文语料预训练,针对中文优化使用字词结合tokenizer,模型将以 Apache 2.0 协议公开。
15+
此外,本项目还公开从头训练的 [**Linly-OpenLLaMA**](https://github.com/CVI-SZU/Linly/wiki/Linly-OpenLLaMA) 模型,在 1TB 中英文语料预训练,针对中文优化使用字词结合tokenizer,模型以 Apache 2.0 协议公开。
1616

1717

1818
<br/>
@@ -30,14 +30,15 @@
3030
[中文预训练语料](corpus/README.md) | [中文指令精调数据集](instructions/README.md) | [模型量化部署](https://github.com/ProjectD-AI/llama_inference) | [领域微调示例](https://github.com/ProjectD-AI/domain-chatflow)
3131

3232
## News
33+
+ **[2023/5/14]** 🚀 更新 v1.2 版 Chinese-LLaMA ,序列长度提升至2048,**开放 Linly-OpenLLaMA v0.1版**
3334

34-
+ **[2023/5/14]** 🚀 更新 v1.1 版,使用更多训练数据,**ChatFlow 序列长度提升至1024,提供网页在线试用和 API**
35+
+ **[2023/5/14]** 更新 v1.1 版,使用更多训练数据,**ChatFlow 序列长度提升至1024,提供网页在线试用和 API**
3536

3637
+ **[2023/4/27]** 正式发布 Linly-ChatFlow-13B 对话模型、Linly-Chinese-LLaMA-33B 中文基础模型
3738

3839
+ **[2023/4/17]** [llama_inference](https://github.com/ProjectD-AI/llama_inference) 更新 8-bit 量化推理和微服务部署,大幅度提升推理速度并降低内存消耗
3940

40-
+ **[2023/4/8]** [TencentPretrain](https://github.com/Tencent/TencentPretrain) 现已支持 LoRA 训练和 DeepSpeed Zero-3 Offload 流水线并行
41+
+ **[2023/4/8]** [TencentPretrain](https://github.com/Tencent/TencentPretrain) 现已支持 LoRA 训练和 DeepSpeed Zero-3 Offload
4142

4243
+ **[2023/4/1]** 更新 4-bit 量化版本 Linly-ChatFlow 模型权重,支持 [llama.cpp](https://github.com/ggerganov/llama.cpp) 高速推理
4344

@@ -61,27 +62,48 @@
6162

6263
## 模型下载
6364

64-
**使用须知** ⚠️
65+
### Linly-Chinese-LLaMA
6566

66-
模型权重基于 [GNU General Public License v3.0](https://www.gnu.org/licenses/gpl-3.0.html) 协议,仅供研究使用,不能用于商业目的。
67-
请确认在已[获得许可](https://docs.google.com/forms/d/e/1FAIpQLSfqNECQnMkycAp2jP4Z9TFX0cGR4uf7b_fBxjY_OjhJILlKGA/viewform?usp=send_form)的前提下使用本仓库中的模型。
67+
Linly-Chinese-LLaMA 系列模型基于 LLaMA 权重和词表,在中文数据上增量预训练。
6868

69+
**使用须知** ⚠️ LLaMA 原始模型权重基于 [GNU General Public License v3.0](https://www.gnu.org/licenses/gpl-3.0.html) 协议,仅供研究使用,不能用于商业目的。
70+
请确认在已[获得许可](https://docs.google.com/forms/d/e/1FAIpQLSfqNECQnMkycAp2jP4Z9TFX0cGR4uf7b_fBxjY_OjhJILlKGA/viewform?usp=send_form)的前提下使用以下模型权重。
6971

70-
**7B**[基础模型 Chinese-LLaMA-7B](https://huggingface.co/Linly-AI/Chinese-LLaMA-7B/)[对话模型 ChatFlow-7B🔥](https://huggingface.co/Linly-AI/ChatFlow-7B)
71-
**13B**[基础模型 Chinese-LLaMA-13B](https://huggingface.co/Linly-AI/Chinese-LLaMA-13B)[对话模型 ChatFlow-13B](https://huggingface.co/Linly-AI/ChatFlow-13B)
72-
**33B**[基础模型 Chinese-LLaMA-33B (hf格式)](https://huggingface.co/P01son/Linly-Chinese-LLaMA-33b-hf)
73-
**65B**:训练中
72+
| 模型下载 | 分类 | 训练数据 | 训练序列长度 | 版本 | 更新时间 |
73+
|------------------------------------------------------------------------|-----|-----------|--------|------|-----------|
74+
| [Chinese-LLaMA-7B](https://huggingface.co/Linly-AI/Chinese-LLaMA-7B/) | 基础模型 | 100G 通用语料 | 2048 | v1.2 | 2023.5.29 |
75+
| [ChatFlow-7B](https://huggingface.co/Linly-AI/ChatFlow-7B) | 对话模型 | 5M 指令数据 | 1024 | v1.1 | 2023.5.14 |
76+
| [Chinese-LLaMA-13B](https://huggingface.co/Linly-AI/Chinese-LLaMA-13B) | 基础模型 | 100G 通用语料 | 2048 | v1.2 | 2023.5.29 |
77+
| [ChatFlow-13B](https://huggingface.co/Linly-AI/ChatFlow-13B) | 对话模型 | 5M 指令数据 | 1024 | v1.1 | 2023.5.14 |
78+
| [Chinese-LLaMA-33B (hf格式)](https://huggingface.co/P01son/Linly-Chinese-LLaMA-33b-hf) | 基础模型 | 30G 通用语料 | 512 | v1.0 | 2023.4.27 |
7479

7580

7681
🤗 **HuggingFace模型**
7782
项目中提供 [转换脚本](./scripts/convert_llama_from_tencentpretrain_to_hf.py),支持 TencentPretrain 格式与 Huggingface 格式互转。详细使用方法参见 ➡️ [Huggingface格式转换](https://github.com/CVI-SZU/Linly/wiki/Huggingface%E6%A0%BC%E5%BC%8F%E8%BD%AC%E6%8D%A2) ⬅️ 。
78-
### 训练情况
83+
84+
### Linly-OpenLLaMA
85+
86+
Linly-OpenLLaMA 模型在大规模中英文语料上**从头训练**词表和模型参数,与原始 LLaMA 模型结构和使用方法一致。
87+
模型以 [Apache License 2.0](https://www.apache.org/licenses/LICENSE-2.0) 协议开源,支持商业用途。[训练细节](https://github.com/CVI-SZU/Linly/wiki/Linly-OpenLLaMA)
88+
89+
| 模型下载 | 分类 | 训练数据 | 训练序列长度 | 版本 | 更新时间 |
90+
|----------------------------------------------------------------|-----|-----------|--------|------|-----------|
91+
| [OpenLLaMA-13B](https://huggingface.co/Linly-AI/OpenLLaMA-13B) | 基础模型 | 100G 通用语料 | 2048 | v0.1 | 2023.5.29 |
92+
93+
## 训练情况
7994

8095
模型仍在迭代中,本项目定期更新模型权重。
96+
97+
### Linly-Chinese-LLaMA
8198
<center class="half">
8299
<img src="assets/loss.png" width="500"/>
83100
</center>
84101

102+
### Linly-OpenLLaMA
103+
<center class="half">
104+
<img src="assets/loss-openllama.png" width="500"/>
105+
</center>
106+
85107

86108
### 在线试用
87109

@@ -154,6 +176,18 @@ python3 llama_server.py --load_model_path ../ChatFlow-7B/chatflow_7b.bin \
154176
curl -H 'Content-Type: application/json' http://127.0.0.1:8888/chat -d '{"question": "北京有什么好玩的地方?"}'
155177
```
156178

179+
### Gradio 本地 Demo
180+
181+
安装依赖:gradio
182+
183+
```bash
184+
python llama_gradio.py --load_model_path ../ChatFlow-7B/chatflow_7b.bin \
185+
--config_path config/llama_7b_config.json \
186+
--spm_model_path ../ChatFlow-7B/tokenizer.model --seq_length 512
187+
188+
```
189+
190+
在网页上打开:http://127.0.0.1:7860/
157191

158192
### Int4 CPU本地部署
159193

@@ -326,7 +360,11 @@ Linly-ChatFlow 完全基于社区开放语料训练,内容未经人工修正
326360
327361
## 交流和问题反馈
328362

329-
添加微信账号 chatllama 拉入群聊
363+
<img src="assets/wechat.jpg" width="250" >
364+
365+
366+
367+
330368

331369

332370
## TODO List

assets/loss-openllama.png

663 Bytes
Loading

assets/loss.png

5.13 KB
Loading

assets/wechat.jpg

900 Bytes
Loading

0 commit comments

Comments
 (0)