ICANN 2001-Learning to Learn Using Gradient Descent

2023-07-29,,

Key

Gradient Descent+LSTM元学习器

解决的主要问题

在之前的机器学习的学习方法中,不会利用到之前的经验,利用到之前经验的“knowledge transfer”(元学习是其中一个)。meta-learner会搜索并找到适合特定学习任务的学习算法。要想有这样的学习方法,必须增加一个监督算法来审查和修改训练算法。现有的方法中是存在“人作为监督器”。

 作者主要是通过适当的系统替换人体部分,自动获得这种学习方法的改进。

处理多个自由参数


文章内容

Introduction

 介绍元学习系统的组成:固定的监督系统和可调整的从属系统

Theoretical considerations

数据如何设置

从属系统input:y(j-1),x(j)
监督属系统input:y(j),x(j),output(从属系统)

如果元学习系统输出不是正确的target y(j),元学习系统就会在每个时间点受到惩罚,这就迫使元学习系统对从属算法进行改进,使其变得更快更准确

为何选择循环架构LSTM

(公式推导没看懂)

查阅资料上的理解:考虑到梯度爆炸和梯度消失现象,所以使用LSTM

从bayes角度理解

元学习可以被视为不断地适应和移动超参数和先验(“归纳偏差移动”)

Experiments

分别实验布尔函数、半线性函数、二次函数

Conclusion

以前的元学习方法对于大量的系统参数是不可行的。为了处理多个自由参数,提出了利用递归网的梯度下降法在元学习中的应用。

理论分析表明,LSTM是一种良好的元学习者,实验也证实了这一点。通过一个LSTM网络,我们的系统得到了一个学习算法,可以在35个例子后近似任何二次函数。

该方法需要一个单一的训练序列,因此,它可能适用于终身学习和自主机器人。

提出的元学习器能够进行非平稳时间序列预测。我们演示了机器如何从零开始推导出新颖、快速的算法


文章方法的优缺点

优点

对于含有大量参数的系统,梯度下降处理会比较容易
LSTM会利用之前经验信息
缺点
基于上下文的,RL中在处理的时候需要一个完整episode

论文链接

[版权归原作者 Lee_ing 所有]

未经原作者允许不得转载本文内容,否则将视为侵权;

ICANN 2001-Learning to Learn Using Gradient Descent的相关教程结束。

《ICANN 2001-Learning to Learn Using Gradient Descent.doc》

下载本文的Word格式文档,以方便收藏与打印。