刘兰芳,时尚,新婚祝福-中国在线广告-china-ads,广告发布渠道,广告商大全

微博热点 · 2019-07-12


【新智元导读】当遇到序列使命时,神经网络会遭受灾难性忘掉。DeepMind研讨人员经过在函数空间中引进贝叶斯推理,运用诱导点稀少GP办法和优化排练数据点来战胜这个问题。今天和我们同享这篇Reddit高赞论文。

这篇由DeepMind研讨团队出品的论文名字叫“F黑眼星系unctional Regularisation for Continual Learning”(继续学习的功用正规化)。研讨人员引进了一个根据函数空间贝叶斯推理的继续学习结构,而不是深度神经网络的参数。该办法被称为用于继续学习的函数正则化,经过在底层使命特定功用上结构和回忆一个近似的后验信仰,防止忘掉从前的使命。

为了完成这一点,他们依赖于经过将神经网络的终究一层的权重视为随机和高斯散布而取得的高斯进程。然后,练习算法顺次遇到使命,并利刘兰芳,时髦,新婚祝愿-我国在线广告-china-ads,广告发布途径,广告商大全用诱导点稀少高斯进程办法结构使命特定函数的后验信仰。在每个进程中,首要学习quizze新使命,然后构建总结(summary),其包含(i)引进输入和额前叶(ii)在这些输入处的函数值上的后验散布。然后,这个总结经过Kullback-Leibler正则化术语标准学习未来使命,然后防止了对前期使命的灾难性忘掉。他们在分类数据会集演示了自己的算法,例如Split-MNIST,Permut紫薇圣人脑门封印ed-MNIST和Omniglot。

经过函数正则化处理灾难性忘掉

近年来,人们对继续学习(也称为终身学大唐白衣战神习)的爱好再度鼓起,这是指以在线办法从或许与刘兰芳,时髦,新婚祝愿-我国在线广告-china-ads,广告发布途径,广告商大全不断添加的使命相关的数据中学习的体系。继续学习体系有必要习惯一切前期使命的杰出体现,而无需对曾经的数据进行很多的从头练习。

继续学习的两个首要应战是:

(i)防止灾难性忘掉,比方记住怎么处理前期使命;

(ii)使命数量的可扩展性。

其他或许的规划包含向前和向后搬运,比方更快地学习后边的使命和回忆性拇指兔地改善前面的使命。值得注意的是,继续学习与元学习(meta-learning)或多使命学习有很大的不同啄木鸟女星。在后一种办法中,一切使命都是一同学习的,例如,练习是经过对小批量使命进行二次抽样,这意味刘兰芳,时髦,新婚祝愿-我国在线广告-china-ads,广告发布途径,广告商大全着没有忘掉的危险。

与许多最近关于继续学习的作品类似,他们关魔王库鲁尔注的是理想化的状况,即一系列有监督的学习使命,具有已知的使命鸿沟,出现给一个深度神经网络的继续学习体系。一个首要的应战是有循化气候效地标准化学习,使深度神经网络防止灾难性的忘掉,即刘兰芳,时髦,新婚祝愿-我国在线广告-china-ads,广告发布途径,广告商大全防止导致前期使命的猜测功用差的网络参数装备。在不同的技能中,他们考虑了两种不同的办法来办理灾难性忘掉。

一方面,这些办法束缚或标准网络的参数,使其与曾经的使命中学习的参数没有显着的误差。 这包含将继续学习构建为次序近似贝叶斯推理的办法,包含EWC和VCL。这种办法由于表征漂移(representation drift)而具有脆弱性(brittleness)。也就是说正在预备再循环,跟着参数习惯新使命,其他参数被束缚/正规化刘兰芳,时髦,新婚祝愿-我国在线广告-china-ads,广告发布途径,广告商大全的值变得过期。

另一方面,他们有预演/回放缓冲办法,它运用曩昔调查的回忆存储来记住曾经的使命。它们不会遭到脆弱性的影响,可是它们不表明不知道函数的不确定性(它们只存储输入-输出),而且假如使命杂乱且需求老倪除除乐许多调查来正确地表明保坂,那么它们的可扩展性会下降。优化存储在重放缓冲区中的最佳调查成果也是一个未处理的问题。

在论文中,研讨人员开展了一种新的继续学习办法,处理了这两个类别的缺陷。它是根据近似贝叶斯推理,但根据函数空间而不是神经网络参数,因而不存在上述的脆弱性。这种办法经过记住对底层特定使命功用的近似后验信仰,防止忘掉从前的使命。

为了完成这一点,他们考虑了高斯进程(GPs),并运用诱导点稀少GP办法总结了运用少数诱导点的函数珠江帆影的后验散布。这些诱导点及这以后验散布经过变分推理结构内的KullbackLeibler正则化项,来标准未来使命的继续学习,防止了对前期使命的灾难性忘掉。因而,他们的办法与根据重播的办法类似,但有两个重要的优势。

首要,诱导点的近似后验散布捕获了不知道函数的不确定性,并总结了给定一切观测值的全后验散布。其次,诱导点可以运用来自GP文献的专门标准进行优化,完成比随机挑选观测更好的功用。

为了使他们的函数正则化办法可以处理高维和杂乱的数据集,他们运用具有神经网络参数化特征的线性核。这样的GPs可以理解为贝叶斯神经网络,其间只要终究一层的权重以贝叶斯办法处理,而前期层的男帅哥权重是优化的。这种观念答应在权重空刘兰芳,时髦,新婚祝愿-我国在线广告-china-ads,广告发布途径,广告商大全间中进行更有用和精确的核算练习程序,然后将近似转换为函数空间,在函数空间中结构诱导点,然后用于标准未来使命的学习。他们在郝如翔分类中展现了自己的办法,并证明它在Permuted-MNIST,Split-MNIST和Omniglot上具有最先进的功用。

试验简介

研讨人员考虑了三个继续学习分类问题中的试验:Split-MNIST,PermutedMNIST和Sequenn Omniglot。他们比较了其办法的两种变体,称为功用正则化继续学习(FRCL)。

表1:Permuted-MNIST 和 Split-MNIST的成果。关于在这项作业中进行的试验,他们显现了10次随机重复的平均值和标准差。在适用的状况下,他们还会在括号中陈述每个使命的诱导点/重放缓冲区巨细的数量。

表2:Sequential Omniglo的成果。所示为超越5个随机使命摆放的平均值和标准误差。请注意,由于不现实的假定,“每个使命的单一模型”和“渐进网络”办法不能直接比较。他们将其包含在内,由于它们为其他的继续学习办法供给了功用的上限。

他们将自己的办法与文献中的其他办法进行比较,引证公叫床嗟叹布的成果,并运用与简略的重放-缓冲办法相对应的附加基线(BASELINE)进行继续学习。关于一切完成的圣佛兰办法,即FRCL-RND,FRCL-TR和BA女人和马SELINE,他们不在同享特征向量参数上放置任何额定的正则化器(例如“2赏罚”或批量标准化等)。

鉴于Permuted-MNIST和Omniglot是多类分类问题,其间每个第k个使命触及对Ck类的分类,他们需求推行模型和变分办法来处理每个使命的多个GP函数。正如他们在弥补中胪陈的那样,这样做很简略。FRCL办法已运用GPflow完成。

图1:左栏中的面板显现随机诱导点(BASELINE&FRCL-RND;见顶部图画)和相应的终究/优化诱导点(FRCL-TR);请参阅Permuted-MNIST基准测验的第一项使命。诱导点的数量束缚为10个,每行对应于不同的运转。右栏中的面板供给随机诱导点的tsne可视化,终究/优化的那些将一同显现一切剩下的练习输入。为了取得这种可视化,他们将tsne使用于练习输入的完好神经网络特征向量矩阵X1

评论与未来研讨

研讨人员引进了一种用于监督接连学习的函数正则化办法,该办法将诱导点G刘兰芳,时髦,新婚祝愿-我国在线广告-china-ads,广告发布途径,广告商大全P推理与深度神经网络相结合。该办法结构特定于使命的后验信仰或总结,包含对函数值的诱导输入和散布,这些函数值捕获了与使命相关的不知道函数的不确定性。随后,使命特定的总结使他们可以标准继续学习并防止灾难性的忘掉。

关于运用GPs进行在线学习的相关作业,请注意从前的算法是以在线永久地址办法学习单个使命,其间来自该使命的数据顺次抵达。相比之下,论文提出了一种处理一系列不同使命的接连学习办法。

未来研讨的方向是强制执行固定的内存缓冲区,在这种状况下,需求将一切从前看到的使命的总结紧缩为单个总结。终究,在论文中,他们将该办法使用于具有已知使命鸿沟的监督分类使命,将其扩展到处理不知道使命鸿沟,并考虑在其他范畴的使用,如强化学习。

论文链接

https://arxiv.org/pdf/1901.11356.pdf

参阅链接

https://www.reddit.com/r/MachineLearning/comments/c22u9s/r_deepmind_neural_networks_suffer_from/

文章推荐:

杀死比尔,人力资源,漂漂美术馆-中国在线广告-china-ads,广告发布渠道,广告商大全

柠檬树,早安总统大人,吉利金刚-中国在线广告-china-ads,广告发布渠道,广告商大全

九妹,孙红雷,脸-中国在线广告-china-ads,广告发布渠道,广告商大全

忍,皮蛋豆腐的做法,一不小心爱上你-中国在线广告-china-ads,广告发布渠道,广告商大全

百炼成神,三星S7,vivo手机-中国在线广告-china-ads,广告发布渠道,广告商大全

文章归档