v0.1 commit

这个提交包含在:
s65b40
2023-04-01 17:37:28 +08:00
父节点 b47fe73629
当前提交 9d25d31a51
共有 12 个文件被更改,包括 10137 次插入2 次删除

13
infer.py 普通文件
查看文件

@@ -0,0 +1,13 @@
import torch
from transformers import AutoTokenizer, AutoModel
from modeling_chatglm import ChatGLMForConditionalGeneration
tokenizer = AutoTokenizer.from_pretrained(
"./model", trust_remote_code=True)
model = ChatGLMForConditionalGeneration.from_pretrained(
"./model").half().cuda()
while True:
a = input("请输入您的问题输入q以退出")
if a.strip() == 'q':
exit()
response, history = model.chat(tokenizer, "问题:" + a.strip() + '\n答案:', max_length=256, history=[])
print("回答:", response)