使用中文GPT2
克隆下来
下载模型:GPT2-Chinese给出的散文模型(密码:fpyu)
进入GPT2-Chinese,执行命令
1 | python generate.py --length=100 --nsamples=4 --prefix='春天' --save_samples --save_samples_path=. --model_path=../gpt2文学散文训练模型 --device=0 --model_config=../gpt2文学散文训练模型/config.json --tokenizer_path=../gpt2文学散文训练模型/vocab.txt |
写四篇“春天”开头的小短文。
得到的文字太烂了,第一句话围绕着“春天”来写,效果还可以。后面的句子全是东拼西凑,完全没有整段文字的焦点,不愧是“人工智障”。剩下的就是开发者的努力,使得它显得聪明一些。
上述命令相比GPT-Chinese项目的readme提供的运行generate.py的命令少了--fast_pattern,因为加上这个参数后generate.py会调用fast_sample_sequence函数,并调用GPT2LMHeadModel的前向传播函数,产生forward函数没有past参数的报错。另外加上了模型文件的参数。
我没有搞自定义语料的训练,上述内容权当抛砖引玉
参考链接:让AI写个作文康康 | GPT2中文项目的部署和自定义语料的训练
创建于2023.2.17/16.58,修改于2023.2.17/16.58