|
12 | 12 | 模型基于 [TencentPretrain](https://github.com/Tencent/TencentPretrain) 预训练框架实现,在 32 * A100 GPU 上全参数训练(Full-tuning), 将陆续开放 7B、13B、33B、65B 规模的中文模型权重。
|
13 | 13 | 中文基础模型以 LLaMA 为底座,利用中文和中英平行增量预训练,将它在英文上强大语言能力迁移到中文上。进一步,项目汇总了目前公开的多语言指令数据,对中文模型进行了大规模指令跟随训练,实现了 Linly-ChatFlow 对话模型。
|
14 | 14 |
|
15 |
| -此外,本项目还公开从头训练的 [**Linly-OpenLLaMA**](https://github.com/CVI-SZU/Linly/wiki/Linly-OpenLLaMA) 模型,在 1TB 中英文语料预训练,针对中文优化使用字词结合tokenizer,模型将以 Apache 2.0 协议公开。 |
| 15 | +此外,本项目还公开从头训练的 [**Linly-OpenLLaMA**](https://github.com/CVI-SZU/Linly/wiki/Linly-OpenLLaMA) 模型,在 1TB 中英文语料预训练,针对中文优化使用字词结合tokenizer,模型以 Apache 2.0 协议公开。 |
16 | 16 |
|
17 | 17 |
|
18 | 18 | <br/>
|
|
30 | 30 | [中文预训练语料](corpus/README.md) | [中文指令精调数据集](instructions/README.md) | [模型量化部署](https://github.com/ProjectD-AI/llama_inference) | [领域微调示例](https://github.com/ProjectD-AI/domain-chatflow)
|
31 | 31 |
|
32 | 32 | ## News
|
| 33 | ++ **[2023/5/14]** 🚀 更新 v1.2 版 Chinese-LLaMA ,序列长度提升至2048,**开放 Linly-OpenLLaMA v0.1版** |
33 | 34 |
|
34 |
| -+ **[2023/5/14]** 🚀 更新 v1.1 版,使用更多训练数据,**ChatFlow 序列长度提升至1024,提供网页在线试用和 API** |
| 35 | ++ **[2023/5/14]** 更新 v1.1 版,使用更多训练数据,**ChatFlow 序列长度提升至1024,提供网页在线试用和 API** |
35 | 36 |
|
36 | 37 | + **[2023/4/27]** 正式发布 Linly-ChatFlow-13B 对话模型、Linly-Chinese-LLaMA-33B 中文基础模型
|
37 | 38 |
|
38 | 39 | + **[2023/4/17]** [llama_inference](https://github.com/ProjectD-AI/llama_inference) 更新 8-bit 量化推理和微服务部署,大幅度提升推理速度并降低内存消耗
|
39 | 40 |
|
40 |
| -+ **[2023/4/8]** [TencentPretrain](https://github.com/Tencent/TencentPretrain) 现已支持 LoRA 训练和 DeepSpeed Zero-3 Offload 流水线并行 |
| 41 | ++ **[2023/4/8]** [TencentPretrain](https://github.com/Tencent/TencentPretrain) 现已支持 LoRA 训练和 DeepSpeed Zero-3 Offload |
41 | 42 |
|
42 | 43 | + **[2023/4/1]** 更新 4-bit 量化版本 Linly-ChatFlow 模型权重,支持 [llama.cpp](https://github.com/ggerganov/llama.cpp) 高速推理
|
43 | 44 |
|
|
61 | 62 |
|
62 | 63 | ## 模型下载
|
63 | 64 |
|
64 |
| -**使用须知** ⚠️ |
| 65 | +### Linly-Chinese-LLaMA |
65 | 66 |
|
66 |
| -模型权重基于 [GNU General Public License v3.0](https://www.gnu.org/licenses/gpl-3.0.html) 协议,仅供研究使用,不能用于商业目的。 |
67 |
| -请确认在已[获得许可](https://docs.google.com/forms/d/e/1FAIpQLSfqNECQnMkycAp2jP4Z9TFX0cGR4uf7b_fBxjY_OjhJILlKGA/viewform?usp=send_form)的前提下使用本仓库中的模型。 |
| 67 | +Linly-Chinese-LLaMA 系列模型基于 LLaMA 权重和词表,在中文数据上增量预训练。 |
68 | 68 |
|
| 69 | +**使用须知** ⚠️ LLaMA 原始模型权重基于 [GNU General Public License v3.0](https://www.gnu.org/licenses/gpl-3.0.html) 协议,仅供研究使用,不能用于商业目的。 |
| 70 | +请确认在已[获得许可](https://docs.google.com/forms/d/e/1FAIpQLSfqNECQnMkycAp2jP4Z9TFX0cGR4uf7b_fBxjY_OjhJILlKGA/viewform?usp=send_form)的前提下使用以下模型权重。 |
69 | 71 |
|
70 |
| -**7B**:[基础模型 Chinese-LLaMA-7B](https://huggingface.co/Linly-AI/Chinese-LLaMA-7B/)| [对话模型 ChatFlow-7B🔥](https://huggingface.co/Linly-AI/ChatFlow-7B) |
71 |
| -**13B**:[基础模型 Chinese-LLaMA-13B](https://huggingface.co/Linly-AI/Chinese-LLaMA-13B)| [对话模型 ChatFlow-13B](https://huggingface.co/Linly-AI/ChatFlow-13B) |
72 |
| -**33B**:[基础模型 Chinese-LLaMA-33B (hf格式)](https://huggingface.co/P01son/Linly-Chinese-LLaMA-33b-hf) |
73 |
| -**65B**:训练中 |
| 72 | +| 模型下载 | 分类 | 训练数据 | 训练序列长度 | 版本 | 更新时间 | |
| 73 | +|------------------------------------------------------------------------|-----|-----------|--------|------|-----------| |
| 74 | +| [Chinese-LLaMA-7B](https://huggingface.co/Linly-AI/Chinese-LLaMA-7B/) | 基础模型 | 100G 通用语料 | 2048 | v1.2 | 2023.5.29 | |
| 75 | +| [ChatFlow-7B](https://huggingface.co/Linly-AI/ChatFlow-7B) | 对话模型 | 5M 指令数据 | 1024 | v1.1 | 2023.5.14 | |
| 76 | +| [Chinese-LLaMA-13B](https://huggingface.co/Linly-AI/Chinese-LLaMA-13B) | 基础模型 | 100G 通用语料 | 2048 | v1.2 | 2023.5.29 | |
| 77 | +| [ChatFlow-13B](https://huggingface.co/Linly-AI/ChatFlow-13B) | 对话模型 | 5M 指令数据 | 1024 | v1.1 | 2023.5.14 | |
| 78 | +| [Chinese-LLaMA-33B (hf格式)](https://huggingface.co/P01son/Linly-Chinese-LLaMA-33b-hf) | 基础模型 | 30G 通用语料 | 512 | v1.0 | 2023.4.27 | |
74 | 79 |
|
75 | 80 |
|
76 | 81 | 🤗 **HuggingFace模型**
|
77 | 82 | 项目中提供 [转换脚本](./scripts/convert_llama_from_tencentpretrain_to_hf.py),支持 TencentPretrain 格式与 Huggingface 格式互转。详细使用方法参见 ➡️ [Huggingface格式转换](https://github.com/CVI-SZU/Linly/wiki/Huggingface%E6%A0%BC%E5%BC%8F%E8%BD%AC%E6%8D%A2) ⬅️ 。
|
78 |
| -### 训练情况 |
| 83 | + |
| 84 | +### Linly-OpenLLaMA |
| 85 | + |
| 86 | +Linly-OpenLLaMA 模型在大规模中英文语料上**从头训练**词表和模型参数,与原始 LLaMA 模型结构和使用方法一致。 |
| 87 | +模型以 [Apache License 2.0](https://www.apache.org/licenses/LICENSE-2.0) 协议开源,支持商业用途。[训练细节](https://github.com/CVI-SZU/Linly/wiki/Linly-OpenLLaMA) |
| 88 | + |
| 89 | +| 模型下载 | 分类 | 训练数据 | 训练序列长度 | 版本 | 更新时间 | |
| 90 | +|----------------------------------------------------------------|-----|-----------|--------|------|-----------| |
| 91 | +| [OpenLLaMA-13B](https://huggingface.co/Linly-AI/OpenLLaMA-13B) | 基础模型 | 100G 通用语料 | 2048 | v0.1 | 2023.5.29 | |
| 92 | + |
| 93 | +## 训练情况 |
79 | 94 |
|
80 | 95 | 模型仍在迭代中,本项目定期更新模型权重。
|
| 96 | + |
| 97 | +### Linly-Chinese-LLaMA |
81 | 98 | <center class="half">
|
82 | 99 | <img src="assets/loss.png" width="500"/>
|
83 | 100 | </center>
|
84 | 101 |
|
| 102 | +### Linly-OpenLLaMA |
| 103 | +<center class="half"> |
| 104 | + <img src="assets/loss-openllama.png" width="500"/> |
| 105 | +</center> |
| 106 | + |
85 | 107 |
|
86 | 108 | ### 在线试用
|
87 | 109 |
|
@@ -154,6 +176,18 @@ python3 llama_server.py --load_model_path ../ChatFlow-7B/chatflow_7b.bin \
|
154 | 176 | curl -H 'Content-Type: application/json' http://127.0.0.1:8888/chat -d '{"question": "北京有什么好玩的地方?"}'
|
155 | 177 | ```
|
156 | 178 |
|
| 179 | +### Gradio 本地 Demo |
| 180 | + |
| 181 | +安装依赖:gradio |
| 182 | + |
| 183 | +```bash |
| 184 | +python llama_gradio.py --load_model_path ../ChatFlow-7B/chatflow_7b.bin \ |
| 185 | + --config_path config/llama_7b_config.json \ |
| 186 | + --spm_model_path ../ChatFlow-7B/tokenizer.model --seq_length 512 |
| 187 | + |
| 188 | +``` |
| 189 | + |
| 190 | +在网页上打开:http://127.0.0.1:7860/ |
157 | 191 |
|
158 | 192 | ### Int4 CPU本地部署
|
159 | 193 |
|
@@ -326,7 +360,11 @@ Linly-ChatFlow 完全基于社区开放语料训练,内容未经人工修正
|
326 | 360 |
|
327 | 361 | ## 交流和问题反馈
|
328 | 362 |
|
329 |
| -添加微信账号 chatllama 拉入群聊 |
| 363 | +<img src="assets/wechat.jpg" width="250" > |
| 364 | + |
| 365 | + |
| 366 | + |
| 367 | + |
330 | 368 |
|
331 | 369 |
|
332 | 370 | ## TODO List
|
|
0 commit comments