镜像自地址
https://github.com/SCIR-HI/Med-ChatGLM.git
已同步 2025-12-05 22:26:50 +00:00
update
这个提交包含在:
@@ -10,6 +10,8 @@
|
|||||||
基于相同的数据,我们还训练了医疗版本的LLaMA模型: [华驼](https://github.com/SCIR-HI/Huatuo-Llama-Med-Chinese)
|
基于相同的数据,我们还训练了医疗版本的LLaMA模型: [华驼](https://github.com/SCIR-HI/Huatuo-Llama-Med-Chinese)
|
||||||
|
|
||||||
## A Quick Start
|
## A Quick Start
|
||||||
|
Updata: 由于chatglm更新很快,推荐使用chatglm官方的微调方案:https://github.com/THUDM/ChatGLM-6B/blob/main/ptuning/README.md
|
||||||
|
|
||||||
首先安装依赖包,python环境建议3.9+
|
首先安装依赖包,python环境建议3.9+
|
||||||
|
|
||||||
```
|
```
|
||||||
|
|||||||
@@ -2,7 +2,7 @@ wandb online
|
|||||||
exp_tag="chatglm_tuning"
|
exp_tag="chatglm_tuning"
|
||||||
|
|
||||||
python run_clm.py \
|
python run_clm.py \
|
||||||
--model_name_or_path MODEL_PATH\
|
--model_name_or_path MODEL_PATH \
|
||||||
--per_device_train_batch_size 8 \
|
--per_device_train_batch_size 8 \
|
||||||
--per_device_eval_batch_size 8 \
|
--per_device_eval_batch_size 8 \
|
||||||
--train_file ./data/train.txt \
|
--train_file ./data/train.txt \
|
||||||
|
|||||||
2
wandb/settings
普通文件
2
wandb/settings
普通文件
@@ -0,0 +1,2 @@
|
|||||||
|
[default]
|
||||||
|
|
||||||
在新工单中引用
屏蔽一个用户