京东网,大左,草料二维码-疯人院-创业创新爱好者的家园

频道:新闻世界 日期: 浏览:243

今日给咱们介绍的是被ICLR2019接纳为口头报告的一篇文章 Transferring Knowledge across Learning Process。该作业的榜首作者是来自英国阿兰 ▪ 图灵研讨所的Sebastian Flennerhag。该文章不同于平常运用提取相同特征来进行常识搬迁的学习办法,而是在练习学习进程中来协助常识的搬迁。


——布景——

跟着机器学习以及深度学习的大规模开展,咱们能够越发感觉到机器的学习与人类的学习存在极大的不同。它们不能够像人类相同,依据已有的常识不断协助后续的学习然后构成一个大的体系(人脑)来完结多项使命。而机器学习模型往往比较具有针对性,当使命比较杂乱的时分,常常会把使命分化,不同的使命需求不同的模型,即便能够运用同一模型,也很简单形成灾难性忘记。因而,人们提出了搬迁学习(Transfer learning)和元学习(Meta learning)的概念,企图运用之前的常识与经历来辅导新使命的学习。


——正文——

本文首先从几许的视点介绍了梯度下降法,他们以为机器学习模型的学习进程便是沿着高维的参数空间中的价值函数流形搜索最低(优)点(图1),而学习的使命练习的难度,对应到学习进程中指的便是引导学习途径到最低点的难度。关于常见的搬迁学习战略fine-tuning,其实便是供给一个更好的初始点,使得学习途径更短或许到达的最低点更低。因而文章作者提出了Leap算法,寻觅一个能够尽可能缩短学习途径的初始点(图1)。

图1. 价值函数外表经过梯度下降法搜索最优解的比方(上)。经过Leap优化初始点,使得关于taskA和taskB的学习途径缩短(下)。


为了测验Leap算法的作用,文章测验了其在Omniglot数据集的作用。Omniglot数据集包括50种不同的字母,每个字母由20个不同的人手写制作。在练习的进程中,文章独自取出10种字母作评价,并运用其它剩余字母的子集做预练习或许元学习。并且文章对比了no pretraining、multi-headed fine-tuning、MAML、FOMAML、Reptile的作用,能够发现Leap和Reptile作用是比较好的,并且跟着使命的杂乱度的添加,Leap逐步优于Reptile。(图2)

图2. 元使命练习的loss跟着练习改变曲线(左)和AUC(差错曲线下面积)跟着元使命练习个数添加的改变曲线(右)


文章还测验了Leap在更杂乱的计算机视觉使命的数据库上的作用,能够看到Leap在多个使命上除了Facescrub都优于其他算法(图3)。而在Facescrub上,尽管Progressive Nets作用最好,可是只与no pretraining差不多,文中并没有解说,自己以为Facescrub与其他使命差异比较大,引起了负搬迁。

图3. 不同的办法在几个计算机视觉库的错误率(这儿只列取部分)


最终,文章测验了Leap在强化学习的作用,运用的是Atari游戏数据库,能够看出Leap都优于随机初始化的成果,即便是关于action space大于预练习的Alien、Gravitar、RoadRunner几个使命也取得了不错的作用。

图4. Leap(橙)与随机初始化(蓝)跟着练习的作用体现。


——小结——

这篇文章给搬迁学习和元学习供给了一个很好的着眼点,重视了练习学习进程。当然也存在必定的问题,比方试验设置仍需改进,有些数据库并非搬迁学习中常用的数据库。可是这篇文章不仅对搬迁学习和元学习进行了必定的探求,并且关于整个练习学习理论的研讨也具有必定的含义。



参考文献:

Flennerhag, Sebastian, et al. "Transferring knowledge across learning processes." arXiv preprint arXiv:1812.01054 (2018).



点击左下角的"阅览原文"即可检查原文章。


作者:蔡臣静

审稿:徐优俊

修改:林康杰


GoDesign

ID:Molecular_Design_Lab

( 扫描下方二维码能够订阅哦!)