利用seq2seq的Decoder-Encoder机制实现序列生成模型(下)

利用seq2seq的Decoder-Encoder机制实现序列生成模型(下)
2018年05月11日 10:39 ai人工智能angtk

这是我们准备参加竞赛用的知识帖子。希望大家通过学习过程中研究tensorflow源码。了解背景知识,再熟悉源码结构,编写简单例子。参加我们,就给我们留言吧

一、预处理

1、引入必要的包

打开source和target两个txt文件,并打印前十个数据

2、数据预处理

这个阶段主要对每个字母映射为唯一不同的数字

查看转换后的结果,可见每个字母都被映射为唯一的数字。

3、获取输入

4、定义Encoder层

5、定义decoder层输入

6、定义decoder层

二、定义seq2seq模型

7、模型定义

8、定义超参数

9、构造graph

10、对batch中的序列进行补全

11、定义生成器,用来获取batch

12、训练并保存模型

13、训练过程如下图所示:

三、测试

14、对源数据进行转换

15、测试图片:

16、最终的输出结果为:

我们专注深度学习社群,想参加我们,就给我们留言吧!

0条评论|0人参与网友评论
最热评论

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部