import tensorflow as tf
f = open("琉璃美人煞.txt")
text = f.read()
print('Length of text: {} characters'.format(len(text)))
Length of text: 928482 characters
print(text[:250])
【全本精校】《琉璃美人煞》 作者:十四十四/十四郎 内容简介: 藏在褚璇玑庸懒外表下的,是一颗琉璃般清澈冰冷的心,前世种种因果,让她今世不懂情感。对修仙的人来说,有心者,凡间即天庭。那么,有心者,是不是可以琉璃亦血肉?天下闻名的簪花大会前夕,璇玑被选为摘花人,与父亲和师兄钟敏言下山狩猎妖魔,并结识了离泽官弟子禹司凤。除妖过程甚是惊险,钟敏言因此发现了璇玑身体里的古怪力量,对她心存警惕,而禹司凤却渐渐对璇玑有意。摘花任务结束后,禹司凤、钟敏言因拯救被陷害的鲛人结下深厚的友谊。回到少阳派之
vocab = sorted(set(text))
print ('{} unique characters'.format(len(vocab)))
3768 unique characters
import numpy as np
# 创建从非重复字符到索引的映射
char2idx = {u:i for i, u in enumerate(vocab)}
idx2char = np.array(vocab)
text_as_int = np.array([char2idx[c] for c in text])
# 设定每个输入句子长度的最大值
seq_length = 40
examples_per_epoch = len(text)//seq_length
# 创建训练样本 / 目标
char_dataset = tf.data.Dataset.from_tensor_slices(text_as_int)
for i in char_dataset.take(5):
print(idx2char[i.numpy()])
【 全 本 精 校
sequences = char_dataset.batch(seq_length+1, drop_remainder=True)
for item in sequences.take(5):
print(item.numpy())
print(repr(''.join(idx2char[item.numpy()])))
[ 43 293 1702 2584 1763 44 41 2227 2245 2693 134 2123 42 0 196 2715 3765 437 738 437 738 5 437 738 3402 0 0 38 38 311 969 2550 141 3765 0 38 38 2946 756 3042 2246] '【全本精校】《琉璃美人煞》\n作者:十四十四/十四郎\n\n\u3000\u3000内容简介:\n\u3000\u3000藏在褚璇' [2209 1129 1335 824 3015 52 2319 3764 1647 45 3614 2227 2245 2839 2011 2070 326 330 2319 1189 3764 382 59 2470 2470 740 1735 3764 3076 857 140 59 53 1331 1275 1307 40 987 233 150 2319] '玑庸懒外表下的,是一颗琉璃般清澈冰冷的心,前世种种因果,让她今世不懂情感。对修仙的' [ 134 1721 3127 3764 1690 1189 2715 3764 344 3494 461 829 1127 40 3395 84 3764 1690 1189 2715 3764 1647 53 1647 509 153 2227 2245 126 3005 2740 3767 829 52 3498 529 2319 2568 2860 828 173] '人来说,有心者,凡间即天庭。那么,有心者,是不是可以琉璃亦血肉?天下闻名的簪花大会' [ 382 823 3764 2246 2209 3029 3354 78 1544 2860 134 3764 54 2144 132 580 1079 280 3442 1586 3066 52 1026 2180 2189 867 3700 3764 1105 2633 3096 108 2463 1945 951 1146 921 2462 517 345 40] '前夕,璇玑被选为摘花人,与父亲和师兄钟敏言下山狩猎妖魔,并结识了离泽官弟子禹司凤。' [3528 867 3326 2480 2257 1647 1277 3530 3764 3442 1586 3066 740 1852 490 2214 108 2246 2209 3281 192 3430 2319 499 1230 396 3433 3764 987 857 1189 926 3069 1280 3764 2716 2462 517 345 462 2015] '除妖过程甚是惊险,钟敏言因此发现了璇玑身体里的古怪力量,对她心存警惕,而禹司凤却渐'
def split_input_target(chunk):
input_text = chunk[:-1]
target_text = chunk[-1:]
return input_text, target_text
dataset = sequences.map(split_input_target)
for input_example, target_example in dataset.take(5):
print ('Input data: ', repr(''.join(idx2char[input_example.numpy()])))
print ('Target data:', repr(''.join(idx2char[target_example.numpy()])))
Input data: '【全本精校】《琉璃美人煞》\n作者:十四十四/十四郎\n\n\u3000\u3000内容简介:\n\u3000\u3000藏在褚' Target data: '璇' Input data: '玑庸懒外表下的,是一颗琉璃般清澈冰冷的心,前世种种因果,让她今世不懂情感。对修仙' Target data: '的' Input data: '人来说,有心者,凡间即天庭。那么,有心者,是不是可以琉璃亦血肉?天下闻名的簪花大' Target data: '会' Input data: '前夕,璇玑被选为摘花人,与父亲和师兄钟敏言下山狩猎妖魔,并结识了离泽官弟子禹司凤' Target data: '。' Input data: '除妖过程甚是惊险,钟敏言因此发现了璇玑身体里的古怪力量,对她心存警惕,而禹司凤却' Target data: '渐'
# 批大小
BATCH_SIZE = 64
# 设定缓冲区大小,以重新排列数据集
# (TF 数据被设计为可以处理可能是无限的序列,
# 所以它不会试图在内存中重新排列整个序列。相反,
# 它维持一个缓冲区,在缓冲区重新排列元素。)
BUFFER_SIZE = 10000
dataset = dataset.shuffle(BUFFER_SIZE).batch(BATCH_SIZE, drop_remainder=True)
dataset
<BatchDataset shapes: ((64, 40), (64, 1)), types: (tf.int64, tf.int64)>
len(dataset)
353
train_dataset = dataset.skip(int(len(dataset)*0.15)).cache()
val_dataset = dataset.take(int(len(dataset)*0.15)).cache()
len(train_dataset)
301
len(val_dataset)
52
# 词集的长度
vocab_size = len(vocab)
# 嵌入的维度
embedding_dim = 512
# RNN 的单元数量
rnn_units = 1024
dataset.take(2)
<TakeDataset shapes: ((64, 40), (64, 1)), types: (tf.int64, tf.int64)>
def build_model(vocab_size, embedding_dim, rnn_units, batch_size):
model = tf.keras.Sequential([
tf.keras.layers.Embedding(vocab_size, embedding_dim, batch_input_shape=(batch_size, seq_length)),
tf.keras.layers.LSTM(rnn_units, return_sequences=False, stateful=True, recurrent_initializer='glorot_uniform'),
tf.keras.layers.Dense(vocab_size, activation="softmax")
])
return model
model = build_model(
vocab_size = len(vocab),
embedding_dim=embedding_dim,
rnn_units=rnn_units,
batch_size=BATCH_SIZE)
model.summary()
Model: "sequential_2" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding_2 (Embedding) (64, 40, 512) 1929216 _________________________________________________________________ lstm_2 (LSTM) (64, 1024) 6295552 _________________________________________________________________ dense_2 (Dense) (64, 3768) 3862200 ================================================================= Total params: 12,086,968 Trainable params: 12,086,968 Non-trainable params: 0 _________________________________________________________________
for input_example_batch, target_example_batch in dataset.take(1):
example_batch_predictions = model(input_example_batch)
print(example_batch_predictions.shape, "# (batch_size, sequence_length, vocab_size)")
(64, 3768) # (batch_size, sequence_length, vocab_size)
sampled_indices = tf.argmax(example_batch_predictions[0])
sampled_indices.numpy()
353
print("Input: \n", repr("".join(idx2char[input_example_batch[0].numpy()])))
print()
print("Next Char Predictions: \n", idx2char[sampled_indices])
Input: '想在最后这几天陪我吗?”\n\u3000\u3000屋里没声音了。\n\u3000\u3000她暗叹一声,起身要走,没走几步' Next Char Predictions: 击
def loss(labels, logits):
return tf.keras.losses.sparse_categorical_crossentropy(labels, logits, from_logits=True)
example_batch_loss = loss(target_example_batch, example_batch_predictions)
print("Prediction shape: ", example_batch_predictions.shape, " # (batch_size, sequence_length, vocab_size)")
print("scalar_loss: ", example_batch_loss.numpy().mean())
Prediction shape: (64, 3768) # (batch_size, sequence_length, vocab_size) scalar_loss: 8.2347555
model.compile(optimizer='adam', loss=loss, metrics=['accuracy'])
import os
# 检查点保存至的目录
checkpoint_dir = './training_checkpoints_single_char'
# 检查点的文件名
checkpoint_prefix = os.path.join(checkpoint_dir, "ckpt_{epoch}")
checkpoint_callback=tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_prefix, save_weights_only=True, save_best_only=True)
checkpoint_es = tf.keras.callbacks.EarlyStopping(patience=5, restore_best_weights=True)
EPOCHS=100
history = model.fit(train_dataset, epochs=EPOCHS, callbacks=[checkpoint_callback, checkpoint_es], validation_data=val_dataset)
Epoch 1/100 301/301 [==============================] - 17s 53ms/step - loss: 6.3937 - accuracy: 0.0820 - val_loss: 5.4342 - val_accuracy: 0.1520 Epoch 2/100 301/301 [==============================] - 15s 51ms/step - loss: 5.1388 - accuracy: 0.1696 - val_loss: 4.9224 - val_accuracy: 0.2034 Epoch 3/100 301/301 [==============================] - 15s 51ms/step - loss: 4.5509 - accuracy: 0.2135 - val_loss: 4.5788 - val_accuracy: 0.2314 Epoch 4/100 301/301 [==============================] - 17s 55ms/step - loss: 3.9664 - accuracy: 0.2626 - val_loss: 4.2926 - val_accuracy: 0.2587 Epoch 5/100 301/301 [==============================] - 16s 53ms/step - loss: 3.3467 - accuracy: 0.3302 - val_loss: 3.9042 - val_accuracy: 0.3098 Epoch 6/100 301/301 [==============================] - 15s 51ms/step - loss: 2.7334 - accuracy: 0.4166 - val_loss: 3.6920 - val_accuracy: 0.3434 Epoch 7/100 301/301 [==============================] - 16s 52ms/step - loss: 2.1390 - accuracy: 0.5328 - val_loss: 3.4808 - val_accuracy: 0.3786 Epoch 8/100 301/301 [==============================] - 16s 52ms/step - loss: 1.6041 - accuracy: 0.6498 - val_loss: 3.3180 - val_accuracy: 0.4126 Epoch 9/100 301/301 [==============================] - 16s 52ms/step - loss: 1.1520 - accuracy: 0.7605 - val_loss: 2.9499 - val_accuracy: 0.4889 Epoch 10/100 301/301 [==============================] - 16s 52ms/step - loss: 0.7571 - accuracy: 0.8634 - val_loss: 2.7141 - val_accuracy: 0.5409 Epoch 11/100 301/301 [==============================] - 16s 52ms/step - loss: 0.4863 - accuracy: 0.9243 - val_loss: 2.6173 - val_accuracy: 0.5697 Epoch 12/100 301/301 [==============================] - 16s 52ms/step - loss: 0.3113 - accuracy: 0.9607 - val_loss: 2.5083 - val_accuracy: 0.6109 Epoch 13/100 301/301 [==============================] - 16s 53ms/step - loss: 0.2052 - accuracy: 0.9750 - val_loss: 2.4666 - val_accuracy: 0.6259 Epoch 14/100 301/301 [==============================] - 15s 51ms/step - loss: 0.1229 - accuracy: 0.9879 - val_loss: 2.5196 - val_accuracy: 0.6211 Epoch 15/100 301/301 [==============================] - 16s 53ms/step - loss: 0.0856 - accuracy: 0.9936 - val_loss: 2.4923 - val_accuracy: 0.6271 Epoch 16/100 301/301 [==============================] - 15s 50ms/step - loss: 0.0767 - accuracy: 0.9939 - val_loss: 2.5092 - val_accuracy: 0.6322 Epoch 17/100 301/301 [==============================] - 16s 52ms/step - loss: 0.0722 - accuracy: 0.9923 - val_loss: 2.4796 - val_accuracy: 0.6442 Epoch 18/100 301/301 [==============================] - 15s 50ms/step - loss: 0.0435 - accuracy: 0.9955 - val_loss: 2.3675 - val_accuracy: 0.6734 Epoch 19/100 301/301 [==============================] - 15s 50ms/step - loss: 0.0315 - accuracy: 0.9981 - val_loss: 2.5341 - val_accuracy: 0.6295 Epoch 20/100 301/301 [==============================] - 15s 51ms/step - loss: 0.0269 - accuracy: 0.9984 - val_loss: 2.4819 - val_accuracy: 0.6505 Epoch 21/100 301/301 [==============================] - 15s 50ms/step - loss: 0.0471 - accuracy: 0.9943 - val_loss: 2.5026 - val_accuracy: 0.6484 Epoch 22/100 301/301 [==============================] - 15s 51ms/step - loss: 0.0313 - accuracy: 0.9974 - val_loss: 2.5950 - val_accuracy: 0.6310 Epoch 23/100 301/301 [==============================] - 15s 50ms/step - loss: 0.0271 - accuracy: 0.9985 - val_loss: 2.7189 - val_accuracy: 0.6094
tf.train.latest_checkpoint(checkpoint_dir)
'./training_checkpoints_single_char/ckpt_18'
model = build_model(vocab_size, embedding_dim, rnn_units, batch_size=1)
model.load_weights(tf.train.latest_checkpoint(checkpoint_dir))
model.build(tf.TensorShape([1, None]))
model.summary()
Model: "sequential_3" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding_3 (Embedding) (1, 40, 512) 1929216 _________________________________________________________________ lstm_3 (LSTM) (1, 1024) 6295552 _________________________________________________________________ dense_3 (Dense) (1, 3768) 3862200 ================================================================= Total params: 12,086,968 Trainable params: 12,086,968 Non-trainable params: 0 _________________________________________________________________
def generate_text(model, start_string):
# 评估步骤(用学习过的模型生成文本)
# 要生成的字符个数
num_generate = 1000
# 将起始字符串转换为数字(向量化)
input_eval = [char2idx[s] for s in start_string]
input_eval = tf.expand_dims(input_eval, 0)
# 空字符串用于存储结果
text_generated = []
# 低温度会生成更可预测的文本
# 较高温度会生成更令人惊讶的文本
# 可以通过试验以找到最好的设定
temperature = 1.0
# 这里批大小为 1
model.reset_states()
for i in range(num_generate):
predictions = model(input_eval)
# 删除批次的维度
predictions = tf.squeeze(predictions, 0)
# 用分类分布预测模型返回的字符
predictions = predictions / temperature
predicted_id = tf.argmax(predictions).numpy()
# 把预测字符和前面的隐藏状态一起传递给模型作为下一个输入
input_eval = tf.expand_dims([predicted_id], 0)
text_generated.append(idx2char[predicted_id])
return (start_string + ''.join(text_generated))
print(generate_text(model, start_string=u"璇玑"))
璇玑她的手一样,一面间向不住的,只听她一些妖魔。 “放到这里赶来!”璇玑赶紧出来,就是睡着禹司凤,是神色有神影,脸帝不语他,只听她身界之极,更不如死去。他们一脚剑就认出来,见到他们快手年,以为他也放在身上,便招手里,探才吱剑剑之后的手。 “死回来,所以前看着看看,又是没有些仙。我和我有样有些勇,赶紧追了这样,对不能死心里,省得这样过来喽的,只有一团黑影。 回回去,那人好心中含马上,一面招手,一面不是他的玩命,居然有些目的,他还有样一条所定是他的心。 三人正是欢害有些计有么来,说道:“我去巡叫,未必这个杀天帝你!” 禹司凤低声道:“我……我也没……关体,还没没有什么,根人却是真正的玩情,我不是修罗道:“你们和我们和我们的事情,算我却是我放手,大心却还是回去。” 禹司凤自然说道:“是师兄别人了!” 禹司凤摇了一声,“她不知道,却是第一次去。玲珑心里,等在他们收着而起来,只见他掌火气,赶紧摇了一千,“死在哪里还有。” 璇玑还没想到他被无法无法,你总觉过去,我不会回去。” 禹司凤低声道:“我……我也没……关体,还没没有什么,根人却是我却第一次去的,什么都知道我会是我们。我却有人的人冲了,我见到他们了。” 禹司凤自主被他说完,见他前上前两人,和禹司凤还是个人好的,谁也不知道未来这种快的东西。 三人正是欢等在他们认了,两个少女是相服,柔声道:“还是—天界的事情,先是有神仙的。” 璇玑还知道:“你自己是—他们和玲珑!” 江了没没没有,只听她掌人几年,整个狂世的夜也没乱出去。 “嗯!”腾蛇摆了一声,道:“是我们碰!我都要注搅他,只觉我身上而过去。” 璇玑奇默了,“嗯!” 璇玑奇默了,“嗯” 禹司凤摇了一声,“她不知道,她却未必第边的确情,再也不敢去。既然他们几个狂世的熟,都是神色的血。倒有伤魔。 在后里与人们几下好的时候,何是大哥的事情,先真的禹司凤,在玲珑地上前,一面低头一阵高摆地撒在脑袋,她面成一把,又道:“你自己,在人快抓起来。” 璇玑也没想到她身体,低声道:“不、说什么,算不是璇玑,不由自己被人都有胜法,却是凡人的心里。” 禹司凤摇了一声,“她这样的剑形形海,只觉她一些小形命事。 禹司凤摇了一声,“她这样一过来的事情。” 璇玑摇头:“他……我也没……你们……懒得还有……” 她张言不说说,
print(generate_text(model, start_string=u"司凤"))
司凤,只得那女子被絮絮无零,何可让她一点一样,急忙扯下,只听她一直走到了一下,急忙抬下,一面低呼一笑,却是半个念道:“你们才要注大哥,天下群而就把这里?” “哦,你怎么时候不太?”腾蛇摆了一声,还有两个月影第第一下,那么谁不知道未来才是所有,只有一人从急道:“你们才要注快。天界的事情,这样一家子的心呀,省得还是回去,不过他的玩道:“我们这样了,我不能对我。” 禹司凤自己是说他们了,懒得与天世的相裳,便是什么也不能靠究里他的心。 三人正是说,还有什么都要因为他们的手影,终于睁知所有笑道:“你们……她也没……关体,还有回来。” 禹司凤自主那所有所有,赶紧摇了一下,急忙吱地狠狠狠狠踹地说道:“你是……关口气!” “什么璇玑,你总觉过去问。” 禹司凤摇了一声,“她不知道做什么,鲜言那人会她的玩命,还是回来!我才完上,这个会不去去,对不能杀他在什么前,鲜言道:“你自己,知道我会是我们。我见他开识,他已经未次见吗?” 璇玑瞪着他,倒没有些腰世的红摆上,一面子里乱作,挣那里不光一些。 无支祁说笑笑:“美,还给不到。” 璇玑瞪着他,倒是禹司凤还是个天界,他的心里,鲜送在他们快下两年,回头的那种客器。 何甲神,只有一个狂光在寒头,柔声道:“还是个傻了,白帝你对到她小礼,算不是妖魔。” 璇玑张奴想想璇玑,不由死了几步,抬头看着她对:“璇玑还知道我就是我们的小丫事,低声道:“我们走!我收不是小礼的仙?” “什么璇玑,你总第一次去看饭东。” 璇玑瞪了一声,“她的心一个世世的开心。他神色剧望的事情,先是一个小方金金的男个男事。 何丹萍一团鬼也和无法好好,是神色,还有一个狂世的片影子。 周围人将她的目头的话子,两人都有高的事情,所有少阳派上前的事情。 何丹萍一团青跳,还有一个狂光的寒影,柔声道:“你自己,走了吗?” 璇玑摇头:“他们是兄经我和玲珑呢。” 璇玑摇头:“他们是兄经我和玲珑!” 璇玑摇头:“他们是我没小,我却是我们一点小心呀!” 玲珑瞪着她,倒是说他们问话,却是一怔,急忙吱了过去。 “什么璇玑,你怎么样不是小丫头,白帝不得这个什么?” 璇玑摇头:“他……我去吧?” 璇玑摇头:“他也没没……”钟敏言忽然觉得羞得柳意欢额他二人好的名字,说道:“你自己,在他们人也有下来。” 璇玑摇头:“他……我就放
print(generate_text(model, start_string=u"钟敏言"))
钟敏言他们眼前,指脱入他的小马上,一面低呼笑道:“那你们……她的意欢还有回来,所以脚一个人都没人了,所有少阳派上去都是没有有。所有些人事,还有回来。此龙都是修罗道:“安嘛,你们这样有人有些仙?” 禹司凤自主那人都有什么大碍的,也不知道未来这里赶去,他还不知道未来这里喝心中大约的,谁是拉着朱者,才道:“安嘛,就是我回去。” 禹司凤自主那些妖魔痛同的,便是不敢因为他相宽的东西。他们的目叫的事情,他们破力一次,在他身上的剑方上去去摸去,封果却是个特一个人心作了,所有少女有开。所简要你死不清楚,省得有什么,他们还有人心。 回回事,还有一个人好的,也还有气力。 回话。她见他们见禹司凤肩毛一眼,急忙道:“你不会在眼前,不过他的玩意,只是她自己的问。” 禹司凤自主那些妖魔赶去,一面便不过他的手穴,赶紧摇头,一面狠狠踹地飞了半天,除在这里湍心里,何可是拉住,紫狐此道:“你去!” 禹司凤低声道:“嗯!”说道:“你自己,他们认了,算我看到了小年拿,算我都在在他燃上,便有人的家招。 回事完,还是禹司凤肩手里,赶紧摇了过去,懒一声问没了一下,急急急急急道:“将军是妖魔有什么的手,大约的是心子的事情。” 禹司凤自主那些妖魔赶去,一面便不过去,突然抬头,“你们一直见人都被杀天界的羽心。 何甲听说,只有一个英影,又道:“你自己,在他们认下。” 禹司凤低声道:“嗯!”说道:“我来巡保,别人的就没有伤!我收不是小意欢,这样两人好的心里,你不知在后里之野五人在这里和老子里都是心里,何可能是心里的剑。何龙,他们还有静静。 回回去,等得他们御手而看着自己,他们一直走到了。 “什么?” 禹司凤勃然是他们了,璇玑以为了前前,都是半天的奇影,若得是腾蛇,他本来看着禹司凤,回头就是杀候不太杀对东言,等了谁有什么。 “嗯!”腾蛇摆了一声,“等天下也没有下仙。” “什么璇玑,你总觉得小礼喝啊。” 禹司凤摇了一声,“她不知道,却是第一次去。璇玑也没想到了。” 禹司凤低声道:“嗯!”说完,还没没有所有,只是第掌次的心情。 “什么璇玑,我不会靠在那里不到了,所有少阳派上的心里,说不在意欢的,何可是修罗道:“你们才抓着,算哪里有人的,你们却是我却是真的那个人的,你从肚子也不过去。” 璇玑还没想到她前前,等得站起来,只见他掌人的手,将禹司凤还是什么地方,算不
print(generate_text(model, start_string=u"\u3000\u3000"))
“我……你是……她来……懒得还是……她的意思是这个离开离泽宫,第一次回来,只见他掌火生之开,只听一个人都是输害的,一个年人都在从里里流,一面不过去,那里不过去,所有在眼前的不在发方,何可是能替他们的凶手。 东方清奇道:“你见到这里吧?” 璇玑瞪了一口,“死了!” 璇玑瞪了一会,忽然抬头:“璇玑,他本来几次见到了看他,低声道:“我不会走到了。” 璇玑瞪了一声,“死了个长静,赶紧摇了一声,“死了!” “什么璇玑,你怎么样子的时候。” 璇玑瞪着他,倒有一字问问。 “什么璇玑,他第一次去帮不过,算不是修罗道:“你们!我等失了!” 璇玑瞪着他,倒没有些字问。 禹司凤自主被他们了几个长在一个月子,一天便便是匆古怪的帝道:“你们……老子吧!我都是没有,我见到他们了!” 禹司凤自然说道:“是我们的兄兄我和若玉是腾蛇。他早本来帮我,小心却大会也不定定定看着自己,他们却有人心的心情。” 璇玑瞪着他,倒平谷:“不、从未快下来,不能留起。” 禹司凤低声道:“我……我也没……她到底是没没有,我没人心作。” 璇玑瞪着他,倒平谷主,这个变力而过,再也不能靠在哪里。 “什么璇玑,你总等在地上爬看着她,被人人几个心心。这里不在意招不清,不过去外究算的东西。” “什么璇玑,你总……” 禹司凤摇了一声,“她不知道,却是第一次去。璇玑也没想到底算被他们的心心,柔声道:“我去巡!”腾蛇小声音淡笑了笑:“美声,道:“我去巡!”腾蛇摆了他,扛在他们的气礼。 “什么璇玑,他们不想过去。” 璇玑也没想到她,只得站着与他的身体,低声道:“还是个傻了,白帝你对” “什么璇玑,他们和禹司凤还是个天界的,也没人两人好心,省得自己被人他的心心。 “敏言,他本会会输呀,这些被他们的人心心。” 禹司凤摇了一声,“她不知道,她却未必能输!我去不了。” 璇玑瞪着他,他立即收着他的人,他也不会在相相服,紫狐的震苍却真觉在相烛,只觉她身下,闪亮犹然不过一下,抬头的那个黑摆。他肯如好,他们也不在意欢撒在云法,何况东西给他们劈下些,“你们在哪里杀。” 璇玑在外想想到她身下,低声道:“不、说什么,算不是小形杀高呀。” 玲珑听他们说完,璇玑见他掌前前都是半天,翻他们都是相命。 禹司凤将那人赶了妖,只是笑道:“你真的是你们。我说不好!” 禹司凤
print(generate_text(model, start_string=u"\u3000\u3000“"))
“我……你是……她来……懒得还是……她的意思是这个离开离泽宫,第一次回来,只见他掌火生之开,只听一个人都是输害的,一个年人都在从里里流,一面不过去,那里不过去,所有在眼前的不在发方,何可是能替他们的凶手。 东方清奇道:“你见到这里吧?” 璇玑瞪了一口,“死了!” 璇玑瞪了一会,忽然抬头:“璇玑,他本来几次见到了看他,低声道:“我不会走到了。” 璇玑瞪了一声,“死了个长静,赶紧摇了一声,“死了!” “什么璇玑,你怎么样子的时候。” 璇玑瞪着他,倒有一字问问。 “什么璇玑,他第一次去帮不过,算不是修罗道:“你们!我等失了!” 璇玑瞪着他,倒没有些字问。 禹司凤自主被他们了几个长在一个月子,一天便便是匆古怪的帝道:“你们……老子吧!我都是没有,我见到他们了!” 禹司凤自然说道:“是我们的兄兄我和若玉是腾蛇。他早本来帮我,小心却大会也不定定定看着自己,他们却有人心的心情。” 璇玑瞪着他,倒平谷:“不、从未快下来,不能留起。” 禹司凤低声道:“我……我也没……她到底是没没有,我没人心作。” 璇玑瞪着他,倒平谷主,这个变力而过,再也不能靠在哪里。 “什么璇玑,你总等在地上爬看着她,被人人几个心心。这里不在意招不清,不过去外究算的东西。” “什么璇玑,你总……” 禹司凤摇了一声,“她不知道,却是第一次去。璇玑也没想到底算被他们的心心,柔声道:“我去巡!”腾蛇小声音淡笑了笑:“美声,道:“我去巡!”腾蛇摆了他,扛在他们的气礼。 “什么璇玑,他们不想过去。” 璇玑也没想到她,只得站着与他的身体,低声道:“还是个傻了,白帝你对” “什么璇玑,他们和禹司凤还是个天界的,也没人两人好心,省得自己被人他的心心。 “敏言,他本会会输呀,这些被他们的人心心。” 禹司凤摇了一声,“她不知道,她却未必能输!我去不了。” 璇玑瞪着他,他立即收着他的人,他也不会在相相服,紫狐的震苍却真觉在相烛,只觉她身下,闪亮犹然不过一下,抬头的那个黑摆。他肯如好,他们也不在意欢撒在云法,何况东西给他们劈下些,“你们在哪里杀。” 璇玑在外想想到她身下,低声道:“不、说什么,算不是小形杀高呀。” 玲珑听他们说完,璇玑见他掌前前都是半天,翻他们都是相命。 禹司凤将那人赶了妖,只是笑道:“你真的是你们。我说不好!” 禹司凤都