项目

克隆下来

下载模型:GPT2-Chinese给出的散文模型(密码:fpyu)

进入GPT2-Chinese,执行命令

1
python generate.py --length=100 --nsamples=4 --prefix='春天' --save_samples --save_samples_path=. --model_path=../gpt2文学散文训练模型 --device=0 --model_config=../gpt2文学散文训练模型/config.json --tokenizer_path=../gpt2文学散文训练模型/vocab.txt

写四篇“春天”开头的小短文。

得到的文字太烂了,第一句话围绕着“春天”来写,效果还可以。后面的句子全是东拼西凑,完全没有整段文字的焦点,不愧是“人工智障”。剩下的就是开发者的努力,使得它显得聪明一些。

上述命令相比GPT-Chinese项目的readme提供的运行generate.py的命令少了--fast_pattern,因为加上这个参数后generate.py会调用fast_sample_sequence函数,并调用GPT2LMHeadModel的前向传播函数,产生forward函数没有past参数的报错。另外加上了模型文件的参数。

我没有搞自定义语料的训练,上述内容权当抛砖引玉

参考链接:让AI写个作文康康 | GPT2中文项目的部署和自定义语料的训练

创建于2023.2.17/16.58,修改于2023.2.17/16.58