堆叠自编码器及(TensorFlow)实现(详解版)

  • 内容
  • 评论
  • 相关

到目前为止介绍的自编码器(除了 CAE)仅由单层编码器和单层解码器组成。编码器和解码器网络也可能有多层,使用更深的编码器和解码器网络可以使自编码器表示更复杂的特征,将一个编码器提取的特征作为输入传递到下一个编码器,这种结构被称为堆叠自编码器(或者深度自编码器)。

堆叠自编码器可以作为一个网络进行训练,训练目标是最小化重构误差;也可以首先使用之前学习的无监督方法对每个编码器/解码器网络进行预训练,然后对整个网络进行微调。有人指出,通过预训练(逐层贪婪训练),效果会更好。

本节将使用逐层贪婪方法来训练堆叠自编码器,为了降低训练难度,这里使用共享权重,因此相应的编码器/解码器权重将是彼此的转置。

具体实现过程

  1. 导入所有必要的模块:



     

本文标题:堆叠自编码器及(TensorFlow)实现(详解版)

本文地址:https://www.hosteonscn.com/4282.html

评论

0条评论

发表评论

邮箱地址不会被公开。 必填项已用*标注