In [1]:
import tensorflow as tf
In [2]:
f = open("琉璃美人煞.txt")
In [3]:
text = f.read()
In [4]:
print('Length of text: {} characters'.format(len(text)))
Length of text: 928482 characters
In [5]:
print(text[:250])
【全本精校】《琉璃美人煞》
作者:十四十四/十四郎

  内容简介:
  藏在褚璇玑庸懒外表下的,是一颗琉璃般清澈冰冷的心,前世种种因果,让她今世不懂情感。对修仙的人来说,有心者,凡间即天庭。那么,有心者,是不是可以琉璃亦血肉?天下闻名的簪花大会前夕,璇玑被选为摘花人,与父亲和师兄钟敏言下山狩猎妖魔,并结识了离泽官弟子禹司凤。除妖过程甚是惊险,钟敏言因此发现了璇玑身体里的古怪力量,对她心存警惕,而禹司凤却渐渐对璇玑有意。摘花任务结束后,禹司凤、钟敏言因拯救被陷害的鲛人结下深厚的友谊。回到少阳派之
In [6]:
vocab = sorted(set(text))
print ('{} unique characters'.format(len(vocab)))
3768 unique characters
In [7]:
import numpy as np
In [8]:
# 创建从非重复字符到索引的映射
char2idx = {u:i for i, u in enumerate(vocab)}
idx2char = np.array(vocab)

text_as_int = np.array([char2idx[c] for c in text])
In [9]:
# 设定每个输入句子长度的最大值
seq_length = 40
examples_per_epoch = len(text)//seq_length

# 创建训练样本 / 目标
char_dataset = tf.data.Dataset.from_tensor_slices(text_as_int)

for i in char_dataset.take(5):
  print(idx2char[i.numpy()])
【
全
本
精
校
In [10]:
sequences = char_dataset.batch(seq_length+1, drop_remainder=True)
In [11]:
for item in sequences.take(5):
    print(item.numpy())
    print(repr(''.join(idx2char[item.numpy()])))
[  43  293 1702 2584 1763   44   41 2227 2245 2693  134 2123   42    0
  196 2715 3765  437  738  437  738    5  437  738 3402    0    0   38
   38  311  969 2550  141 3765    0   38   38 2946  756 3042 2246]
'【全本精校】《琉璃美人煞》\n作者:十四十四/十四郎\n\n\u3000\u3000内容简介:\n\u3000\u3000藏在褚璇'
[2209 1129 1335  824 3015   52 2319 3764 1647   45 3614 2227 2245 2839
 2011 2070  326  330 2319 1189 3764  382   59 2470 2470  740 1735 3764
 3076  857  140   59   53 1331 1275 1307   40  987  233  150 2319]
'玑庸懒外表下的,是一颗琉璃般清澈冰冷的心,前世种种因果,让她今世不懂情感。对修仙的'
[ 134 1721 3127 3764 1690 1189 2715 3764  344 3494  461  829 1127   40
 3395   84 3764 1690 1189 2715 3764 1647   53 1647  509  153 2227 2245
  126 3005 2740 3767  829   52 3498  529 2319 2568 2860  828  173]
'人来说,有心者,凡间即天庭。那么,有心者,是不是可以琉璃亦血肉?天下闻名的簪花大会'
[ 382  823 3764 2246 2209 3029 3354   78 1544 2860  134 3764   54 2144
  132  580 1079  280 3442 1586 3066   52 1026 2180 2189  867 3700 3764
 1105 2633 3096  108 2463 1945  951 1146  921 2462  517  345   40]
'前夕,璇玑被选为摘花人,与父亲和师兄钟敏言下山狩猎妖魔,并结识了离泽官弟子禹司凤。'
[3528  867 3326 2480 2257 1647 1277 3530 3764 3442 1586 3066  740 1852
  490 2214  108 2246 2209 3281  192 3430 2319  499 1230  396 3433 3764
  987  857 1189  926 3069 1280 3764 2716 2462  517  345  462 2015]
'除妖过程甚是惊险,钟敏言因此发现了璇玑身体里的古怪力量,对她心存警惕,而禹司凤却渐'
In [12]:
def split_input_target(chunk):
    input_text = chunk[:-1]
    target_text = chunk[-1:]
    return input_text, target_text

dataset = sequences.map(split_input_target)
In [13]:
for input_example, target_example in  dataset.take(5):
    print ('Input data: ', repr(''.join(idx2char[input_example.numpy()])))
    print ('Target data:', repr(''.join(idx2char[target_example.numpy()])))
Input data:  '【全本精校】《琉璃美人煞》\n作者:十四十四/十四郎\n\n\u3000\u3000内容简介:\n\u3000\u3000藏在褚'
Target data: '璇'
Input data:  '玑庸懒外表下的,是一颗琉璃般清澈冰冷的心,前世种种因果,让她今世不懂情感。对修仙'
Target data: '的'
Input data:  '人来说,有心者,凡间即天庭。那么,有心者,是不是可以琉璃亦血肉?天下闻名的簪花大'
Target data: '会'
Input data:  '前夕,璇玑被选为摘花人,与父亲和师兄钟敏言下山狩猎妖魔,并结识了离泽官弟子禹司凤'
Target data: '。'
Input data:  '除妖过程甚是惊险,钟敏言因此发现了璇玑身体里的古怪力量,对她心存警惕,而禹司凤却'
Target data: '渐'
In [14]:
# 批大小
BATCH_SIZE = 64

# 设定缓冲区大小,以重新排列数据集
# (TF 数据被设计为可以处理可能是无限的序列,
# 所以它不会试图在内存中重新排列整个序列。相反,
# 它维持一个缓冲区,在缓冲区重新排列元素。) 
BUFFER_SIZE = 10000

dataset = dataset.shuffle(BUFFER_SIZE).batch(BATCH_SIZE, drop_remainder=True)

dataset
Out[14]:
<BatchDataset shapes: ((64, 40), (64, 1)), types: (tf.int64, tf.int64)>
In [15]:
len(dataset)
Out[15]:
353
In [16]:
train_dataset = dataset.skip(int(len(dataset)*0.15)).cache()
In [17]:
val_dataset = dataset.take(int(len(dataset)*0.15)).cache()
In [18]:
len(train_dataset)
Out[18]:
301
In [19]:
len(val_dataset)
Out[19]:
52
In [20]:
# 词集的长度
vocab_size = len(vocab)

# 嵌入的维度
embedding_dim = 512

# RNN 的单元数量
rnn_units = 1024
In [21]:
dataset.take(2)
Out[21]:
<TakeDataset shapes: ((64, 40), (64, 1)), types: (tf.int64, tf.int64)>
In [53]:
def build_model(vocab_size, embedding_dim, rnn_units, batch_size):
    model = tf.keras.Sequential([
      tf.keras.layers.Embedding(vocab_size, embedding_dim, batch_input_shape=(batch_size, seq_length)),
      tf.keras.layers.LSTM(rnn_units, return_sequences=False, stateful=True, recurrent_initializer='glorot_uniform'),
      tf.keras.layers.Dense(vocab_size, activation="softmax")
    ])
    return model
In [54]:
model = build_model(
  vocab_size = len(vocab),
  embedding_dim=embedding_dim,
  rnn_units=rnn_units,
  batch_size=BATCH_SIZE)
In [55]:
model.summary()
Model: "sequential_2"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
embedding_2 (Embedding)      (64, 40, 512)             1929216   
_________________________________________________________________
lstm_2 (LSTM)                (64, 1024)                6295552   
_________________________________________________________________
dense_2 (Dense)              (64, 3768)                3862200   
=================================================================
Total params: 12,086,968
Trainable params: 12,086,968
Non-trainable params: 0
_________________________________________________________________
In [56]:
for input_example_batch, target_example_batch in dataset.take(1):
  example_batch_predictions = model(input_example_batch)
  print(example_batch_predictions.shape, "# (batch_size, sequence_length, vocab_size)")
(64, 3768) # (batch_size, sequence_length, vocab_size)
In [57]:
sampled_indices = tf.argmax(example_batch_predictions[0])
In [60]:
sampled_indices.numpy()
Out[60]:
353
In [61]:
print("Input: \n", repr("".join(idx2char[input_example_batch[0].numpy()])))
print()
print("Next Char Predictions: \n", idx2char[sampled_indices])
Input: 
 '想在最后这几天陪我吗?”\n\u3000\u3000屋里没声音了。\n\u3000\u3000她暗叹一声,起身要走,没走几步'

Next Char Predictions: 
 击
In [62]:
def loss(labels, logits):
  return tf.keras.losses.sparse_categorical_crossentropy(labels, logits, from_logits=True)

example_batch_loss  = loss(target_example_batch, example_batch_predictions)
print("Prediction shape: ", example_batch_predictions.shape, " # (batch_size, sequence_length, vocab_size)")
print("scalar_loss:      ", example_batch_loss.numpy().mean())
Prediction shape:  (64, 3768)  # (batch_size, sequence_length, vocab_size)
scalar_loss:       8.2347555
In [63]:
model.compile(optimizer='adam', loss=loss, metrics=['accuracy'])
In [64]:
import os
In [65]:
# 检查点保存至的目录
checkpoint_dir = './training_checkpoints_single_char'

# 检查点的文件名
checkpoint_prefix = os.path.join(checkpoint_dir, "ckpt_{epoch}")

checkpoint_callback=tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_prefix, save_weights_only=True, save_best_only=True)
In [66]:
checkpoint_es = tf.keras.callbacks.EarlyStopping(patience=5, restore_best_weights=True)
In [37]:
EPOCHS=100
In [67]:
history = model.fit(train_dataset, epochs=EPOCHS, callbacks=[checkpoint_callback, checkpoint_es], validation_data=val_dataset)
Epoch 1/100
301/301 [==============================] - 17s 53ms/step - loss: 6.3937 - accuracy: 0.0820 - val_loss: 5.4342 - val_accuracy: 0.1520
Epoch 2/100
301/301 [==============================] - 15s 51ms/step - loss: 5.1388 - accuracy: 0.1696 - val_loss: 4.9224 - val_accuracy: 0.2034
Epoch 3/100
301/301 [==============================] - 15s 51ms/step - loss: 4.5509 - accuracy: 0.2135 - val_loss: 4.5788 - val_accuracy: 0.2314
Epoch 4/100
301/301 [==============================] - 17s 55ms/step - loss: 3.9664 - accuracy: 0.2626 - val_loss: 4.2926 - val_accuracy: 0.2587
Epoch 5/100
301/301 [==============================] - 16s 53ms/step - loss: 3.3467 - accuracy: 0.3302 - val_loss: 3.9042 - val_accuracy: 0.3098
Epoch 6/100
301/301 [==============================] - 15s 51ms/step - loss: 2.7334 - accuracy: 0.4166 - val_loss: 3.6920 - val_accuracy: 0.3434
Epoch 7/100
301/301 [==============================] - 16s 52ms/step - loss: 2.1390 - accuracy: 0.5328 - val_loss: 3.4808 - val_accuracy: 0.3786
Epoch 8/100
301/301 [==============================] - 16s 52ms/step - loss: 1.6041 - accuracy: 0.6498 - val_loss: 3.3180 - val_accuracy: 0.4126
Epoch 9/100
301/301 [==============================] - 16s 52ms/step - loss: 1.1520 - accuracy: 0.7605 - val_loss: 2.9499 - val_accuracy: 0.4889
Epoch 10/100
301/301 [==============================] - 16s 52ms/step - loss: 0.7571 - accuracy: 0.8634 - val_loss: 2.7141 - val_accuracy: 0.5409
Epoch 11/100
301/301 [==============================] - 16s 52ms/step - loss: 0.4863 - accuracy: 0.9243 - val_loss: 2.6173 - val_accuracy: 0.5697
Epoch 12/100
301/301 [==============================] - 16s 52ms/step - loss: 0.3113 - accuracy: 0.9607 - val_loss: 2.5083 - val_accuracy: 0.6109
Epoch 13/100
301/301 [==============================] - 16s 53ms/step - loss: 0.2052 - accuracy: 0.9750 - val_loss: 2.4666 - val_accuracy: 0.6259
Epoch 14/100
301/301 [==============================] - 15s 51ms/step - loss: 0.1229 - accuracy: 0.9879 - val_loss: 2.5196 - val_accuracy: 0.6211
Epoch 15/100
301/301 [==============================] - 16s 53ms/step - loss: 0.0856 - accuracy: 0.9936 - val_loss: 2.4923 - val_accuracy: 0.6271
Epoch 16/100
301/301 [==============================] - 15s 50ms/step - loss: 0.0767 - accuracy: 0.9939 - val_loss: 2.5092 - val_accuracy: 0.6322
Epoch 17/100
301/301 [==============================] - 16s 52ms/step - loss: 0.0722 - accuracy: 0.9923 - val_loss: 2.4796 - val_accuracy: 0.6442
Epoch 18/100
301/301 [==============================] - 15s 50ms/step - loss: 0.0435 - accuracy: 0.9955 - val_loss: 2.3675 - val_accuracy: 0.6734
Epoch 19/100
301/301 [==============================] - 15s 50ms/step - loss: 0.0315 - accuracy: 0.9981 - val_loss: 2.5341 - val_accuracy: 0.6295
Epoch 20/100
301/301 [==============================] - 15s 51ms/step - loss: 0.0269 - accuracy: 0.9984 - val_loss: 2.4819 - val_accuracy: 0.6505
Epoch 21/100
301/301 [==============================] - 15s 50ms/step - loss: 0.0471 - accuracy: 0.9943 - val_loss: 2.5026 - val_accuracy: 0.6484
Epoch 22/100
301/301 [==============================] - 15s 51ms/step - loss: 0.0313 - accuracy: 0.9974 - val_loss: 2.5950 - val_accuracy: 0.6310
Epoch 23/100
301/301 [==============================] - 15s 50ms/step - loss: 0.0271 - accuracy: 0.9985 - val_loss: 2.7189 - val_accuracy: 0.6094
In [68]:
tf.train.latest_checkpoint(checkpoint_dir)
Out[68]:
'./training_checkpoints_single_char/ckpt_18'
In [69]:
model = build_model(vocab_size, embedding_dim, rnn_units, batch_size=1)

model.load_weights(tf.train.latest_checkpoint(checkpoint_dir))

model.build(tf.TensorShape([1, None]))
In [70]:
model.summary()
Model: "sequential_3"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
embedding_3 (Embedding)      (1, 40, 512)              1929216   
_________________________________________________________________
lstm_3 (LSTM)                (1, 1024)                 6295552   
_________________________________________________________________
dense_3 (Dense)              (1, 3768)                 3862200   
=================================================================
Total params: 12,086,968
Trainable params: 12,086,968
Non-trainable params: 0
_________________________________________________________________
In [71]:
def generate_text(model, start_string):
  # 评估步骤(用学习过的模型生成文本)

  # 要生成的字符个数
  num_generate = 1000

  # 将起始字符串转换为数字(向量化)
  input_eval = [char2idx[s] for s in start_string]
  input_eval = tf.expand_dims(input_eval, 0)

  # 空字符串用于存储结果
  text_generated = []

  # 低温度会生成更可预测的文本
  # 较高温度会生成更令人惊讶的文本
  # 可以通过试验以找到最好的设定
  temperature = 1.0

  # 这里批大小为 1
  model.reset_states()
  for i in range(num_generate):
      predictions = model(input_eval)
      # 删除批次的维度
      predictions = tf.squeeze(predictions, 0)

      # 用分类分布预测模型返回的字符
      predictions = predictions / temperature
      predicted_id = tf.argmax(predictions).numpy()

      # 把预测字符和前面的隐藏状态一起传递给模型作为下一个输入
      input_eval = tf.expand_dims([predicted_id], 0)

      text_generated.append(idx2char[predicted_id])

  return (start_string + ''.join(text_generated))
In [72]:
print(generate_text(model, start_string=u"璇玑"))
璇玑她的手一样,一面间向不住的,只听她一些妖魔。
  “放到这里赶来!”璇玑赶紧出来,就是睡着禹司凤,是神色有神影,脸帝不语他,只听她身界之极,更不如死去。他们一脚剑就认出来,见到他们快手年,以为他也放在身上,便招手里,探才吱剑剑之后的手。
  “死回来,所以前看着看看,又是没有些仙。我和我有样有些勇,赶紧追了这样,对不能死心里,省得这样过来喽的,只有一团黑影。
  回回去,那人好心中含马上,一面招手,一面不是他的玩命,居然有些目的,他还有样一条所定是他的心。
  三人正是欢害有些计有么来,说道:“我去巡叫,未必这个杀天帝你!”
  禹司凤低声道:“我……我也没……关体,还没没有什么,根人却是真正的玩情,我不是修罗道:“你们和我们和我们的事情,算我却是我放手,大心却还是回去。”
  禹司凤自然说道:“是师兄别人了!”
  禹司凤摇了一声,“她不知道,却是第一次去。玲珑心里,等在他们收着而起来,只见他掌火气,赶紧摇了一千,“死在哪里还有。”
  璇玑还没想到他被无法无法,你总觉过去,我不会回去。”
  禹司凤低声道:“我……我也没……关体,还没没有什么,根人却是我却第一次去的,什么都知道我会是我们。我却有人的人冲了,我见到他们了。”
  禹司凤自主被他说完,见他前上前两人,和禹司凤还是个人好的,谁也不知道未来这种快的东西。
  三人正是欢等在他们认了,两个少女是相服,柔声道:“还是—天界的事情,先是有神仙的。”
  璇玑还知道:“你自己是—他们和玲珑!”
  江了没没没有,只听她掌人几年,整个狂世的夜也没乱出去。
  “嗯!”腾蛇摆了一声,道:“是我们碰!我都要注搅他,只觉我身上而过去。”
  璇玑奇默了,“嗯!”
  璇玑奇默了,“嗯”
  禹司凤摇了一声,“她不知道,她却未必第边的确情,再也不敢去。既然他们几个狂世的熟,都是神色的血。倒有伤魔。
  在后里与人们几下好的时候,何是大哥的事情,先真的禹司凤,在玲珑地上前,一面低头一阵高摆地撒在脑袋,她面成一把,又道:“你自己,在人快抓起来。”
  璇玑也没想到她身体,低声道:“不、说什么,算不是璇玑,不由自己被人都有胜法,却是凡人的心里。”
  禹司凤摇了一声,“她这样的剑形形海,只觉她一些小形命事。
  禹司凤摇了一声,“她这样一过来的事情。”
  璇玑摇头:“他……我也没……你们……懒得还有……”
  她张言不说说,
In [73]:
print(generate_text(model, start_string=u"司凤"))
司凤,只得那女子被絮絮无零,何可让她一点一样,急忙扯下,只听她一直走到了一下,急忙抬下,一面低呼一笑,却是半个念道:“你们才要注大哥,天下群而就把这里?”
  “哦,你怎么时候不太?”腾蛇摆了一声,还有两个月影第第一下,那么谁不知道未来才是所有,只有一人从急道:“你们才要注快。天界的事情,这样一家子的心呀,省得还是回去,不过他的玩道:“我们这样了,我不能对我。”
  禹司凤自己是说他们了,懒得与天世的相裳,便是什么也不能靠究里他的心。
  三人正是说,还有什么都要因为他们的手影,终于睁知所有笑道:“你们……她也没……关体,还有回来。”
  禹司凤自主那所有所有,赶紧摇了一下,急忙吱地狠狠狠狠踹地说道:“你是……关口气!”
  “什么璇玑,你总觉过去问。”
  禹司凤摇了一声,“她不知道做什么,鲜言那人会她的玩命,还是回来!我才完上,这个会不去去,对不能杀他在什么前,鲜言道:“你自己,知道我会是我们。我见他开识,他已经未次见吗?”
  璇玑瞪着他,倒没有些腰世的红摆上,一面子里乱作,挣那里不光一些。
  无支祁说笑笑:“美,还给不到。”
  璇玑瞪着他,倒是禹司凤还是个天界,他的心里,鲜送在他们快下两年,回头的那种客器。
  何甲神,只有一个狂光在寒头,柔声道:“还是个傻了,白帝你对到她小礼,算不是妖魔。”
  璇玑张奴想想璇玑,不由死了几步,抬头看着她对:“璇玑还知道我就是我们的小丫事,低声道:“我们走!我收不是小礼的仙?”
  “什么璇玑,你总第一次去看饭东。”
  璇玑瞪了一声,“她的心一个世世的开心。他神色剧望的事情,先是一个小方金金的男个男事。
  何丹萍一团鬼也和无法好好,是神色,还有一个狂世的片影子。
  周围人将她的目头的话子,两人都有高的事情,所有少阳派上前的事情。
  何丹萍一团青跳,还有一个狂光的寒影,柔声道:“你自己,走了吗?”
  璇玑摇头:“他们是兄经我和玲珑呢。”
  璇玑摇头:“他们是兄经我和玲珑!”
  璇玑摇头:“他们是我没小,我却是我们一点小心呀!”
  玲珑瞪着她,倒是说他们问话,却是一怔,急忙吱了过去。
  “什么璇玑,你怎么样不是小丫头,白帝不得这个什么?”
  璇玑摇头:“他……我去吧?”
  璇玑摇头:“他也没没……”钟敏言忽然觉得羞得柳意欢额他二人好的名字,说道:“你自己,在他们人也有下来。”
  璇玑摇头:“他……我就放
In [74]:
print(generate_text(model, start_string=u"钟敏言"))
钟敏言他们眼前,指脱入他的小马上,一面低呼笑道:“那你们……她的意欢还有回来,所以脚一个人都没人了,所有少阳派上去都是没有有。所有些人事,还有回来。此龙都是修罗道:“安嘛,你们这样有人有些仙?”
  禹司凤自主那人都有什么大碍的,也不知道未来这里赶去,他还不知道未来这里喝心中大约的,谁是拉着朱者,才道:“安嘛,就是我回去。”
  禹司凤自主那些妖魔痛同的,便是不敢因为他相宽的东西。他们的目叫的事情,他们破力一次,在他身上的剑方上去去摸去,封果却是个特一个人心作了,所有少女有开。所简要你死不清楚,省得有什么,他们还有人心。
  回回事,还有一个人好的,也还有气力。
  回话。她见他们见禹司凤肩毛一眼,急忙道:“你不会在眼前,不过他的玩意,只是她自己的问。”
  禹司凤自主那些妖魔赶去,一面便不过他的手穴,赶紧摇头,一面狠狠踹地飞了半天,除在这里湍心里,何可是拉住,紫狐此道:“你去!”
  禹司凤低声道:“嗯!”说道:“你自己,他们认了,算我看到了小年拿,算我都在在他燃上,便有人的家招。
  回事完,还是禹司凤肩手里,赶紧摇了过去,懒一声问没了一下,急急急急急道:“将军是妖魔有什么的手,大约的是心子的事情。”
  禹司凤自主那些妖魔赶去,一面便不过去,突然抬头,“你们一直见人都被杀天界的羽心。
  何甲听说,只有一个英影,又道:“你自己,在他们认下。”
  禹司凤低声道:“嗯!”说道:“我来巡保,别人的就没有伤!我收不是小意欢,这样两人好的心里,你不知在后里之野五人在这里和老子里都是心里,何可能是心里的剑。何龙,他们还有静静。
  回回去,等得他们御手而看着自己,他们一直走到了。
  “什么?”
  禹司凤勃然是他们了,璇玑以为了前前,都是半天的奇影,若得是腾蛇,他本来看着禹司凤,回头就是杀候不太杀对东言,等了谁有什么。
  “嗯!”腾蛇摆了一声,“等天下也没有下仙。”
  “什么璇玑,你总觉得小礼喝啊。”
  禹司凤摇了一声,“她不知道,却是第一次去。璇玑也没想到了。”
  禹司凤低声道:“嗯!”说完,还没没有所有,只是第掌次的心情。
  “什么璇玑,我不会靠在那里不到了,所有少阳派上的心里,说不在意欢的,何可是修罗道:“你们才抓着,算哪里有人的,你们却是我却是真的那个人的,你从肚子也不过去。”
  璇玑还没想到她前前,等得站起来,只见他掌人的手,将禹司凤还是什么地方,算不
In [75]:
print(generate_text(model, start_string=u"\u3000\u3000"))
  “我……你是……她来……懒得还是……她的意思是这个离开离泽宫,第一次回来,只见他掌火生之开,只听一个人都是输害的,一个年人都在从里里流,一面不过去,那里不过去,所有在眼前的不在发方,何可是能替他们的凶手。
  东方清奇道:“你见到这里吧?”
  璇玑瞪了一口,“死了!”
  璇玑瞪了一会,忽然抬头:“璇玑,他本来几次见到了看他,低声道:“我不会走到了。”
  璇玑瞪了一声,“死了个长静,赶紧摇了一声,“死了!”
  “什么璇玑,你怎么样子的时候。”
  璇玑瞪着他,倒有一字问问。
  “什么璇玑,他第一次去帮不过,算不是修罗道:“你们!我等失了!”
  璇玑瞪着他,倒没有些字问。
  禹司凤自主被他们了几个长在一个月子,一天便便是匆古怪的帝道:“你们……老子吧!我都是没有,我见到他们了!”
  禹司凤自然说道:“是我们的兄兄我和若玉是腾蛇。他早本来帮我,小心却大会也不定定定看着自己,他们却有人心的心情。”
  璇玑瞪着他,倒平谷:“不、从未快下来,不能留起。”
  禹司凤低声道:“我……我也没……她到底是没没有,我没人心作。”
  璇玑瞪着他,倒平谷主,这个变力而过,再也不能靠在哪里。
  “什么璇玑,你总等在地上爬看着她,被人人几个心心。这里不在意招不清,不过去外究算的东西。”
  “什么璇玑,你总……”
  禹司凤摇了一声,“她不知道,却是第一次去。璇玑也没想到底算被他们的心心,柔声道:“我去巡!”腾蛇小声音淡笑了笑:“美声,道:“我去巡!”腾蛇摆了他,扛在他们的气礼。
  “什么璇玑,他们不想过去。”
  璇玑也没想到她,只得站着与他的身体,低声道:“还是个傻了,白帝你对”
  “什么璇玑,他们和禹司凤还是个天界的,也没人两人好心,省得自己被人他的心心。
  “敏言,他本会会输呀,这些被他们的人心心。”
  禹司凤摇了一声,“她不知道,她却未必能输!我去不了。”
  璇玑瞪着他,他立即收着他的人,他也不会在相相服,紫狐的震苍却真觉在相烛,只觉她身下,闪亮犹然不过一下,抬头的那个黑摆。他肯如好,他们也不在意欢撒在云法,何况东西给他们劈下些,“你们在哪里杀。”
  璇玑在外想想到她身下,低声道:“不、说什么,算不是小形杀高呀。”
  玲珑听他们说完,璇玑见他掌前前都是半天,翻他们都是相命。
  禹司凤将那人赶了妖,只是笑道:“你真的是你们。我说不好!”
  禹司凤
In [76]:
print(generate_text(model, start_string=u"\u3000\u3000“"))
  “我……你是……她来……懒得还是……她的意思是这个离开离泽宫,第一次回来,只见他掌火生之开,只听一个人都是输害的,一个年人都在从里里流,一面不过去,那里不过去,所有在眼前的不在发方,何可是能替他们的凶手。
  东方清奇道:“你见到这里吧?”
  璇玑瞪了一口,“死了!”
  璇玑瞪了一会,忽然抬头:“璇玑,他本来几次见到了看他,低声道:“我不会走到了。”
  璇玑瞪了一声,“死了个长静,赶紧摇了一声,“死了!”
  “什么璇玑,你怎么样子的时候。”
  璇玑瞪着他,倒有一字问问。
  “什么璇玑,他第一次去帮不过,算不是修罗道:“你们!我等失了!”
  璇玑瞪着他,倒没有些字问。
  禹司凤自主被他们了几个长在一个月子,一天便便是匆古怪的帝道:“你们……老子吧!我都是没有,我见到他们了!”
  禹司凤自然说道:“是我们的兄兄我和若玉是腾蛇。他早本来帮我,小心却大会也不定定定看着自己,他们却有人心的心情。”
  璇玑瞪着他,倒平谷:“不、从未快下来,不能留起。”
  禹司凤低声道:“我……我也没……她到底是没没有,我没人心作。”
  璇玑瞪着他,倒平谷主,这个变力而过,再也不能靠在哪里。
  “什么璇玑,你总等在地上爬看着她,被人人几个心心。这里不在意招不清,不过去外究算的东西。”
  “什么璇玑,你总……”
  禹司凤摇了一声,“她不知道,却是第一次去。璇玑也没想到底算被他们的心心,柔声道:“我去巡!”腾蛇小声音淡笑了笑:“美声,道:“我去巡!”腾蛇摆了他,扛在他们的气礼。
  “什么璇玑,他们不想过去。”
  璇玑也没想到她,只得站着与他的身体,低声道:“还是个傻了,白帝你对”
  “什么璇玑,他们和禹司凤还是个天界的,也没人两人好心,省得自己被人他的心心。
  “敏言,他本会会输呀,这些被他们的人心心。”
  禹司凤摇了一声,“她不知道,她却未必能输!我去不了。”
  璇玑瞪着他,他立即收着他的人,他也不会在相相服,紫狐的震苍却真觉在相烛,只觉她身下,闪亮犹然不过一下,抬头的那个黑摆。他肯如好,他们也不在意欢撒在云法,何况东西给他们劈下些,“你们在哪里杀。”
  璇玑在外想想到她身下,低声道:“不、说什么,算不是小形杀高呀。”
  玲珑听他们说完,璇玑见他掌前前都是半天,翻他们都是相命。
  禹司凤将那人赶了妖,只是笑道:“你真的是你们。我说不好!”
  禹司凤都
In [ ]: