【momo-AI小课】热知识4: 迁移学习的基本方法(详细)

【momo-AI小课】热知识4: 迁移学习的基本方法(详细)



迁移学习的基本方法



分为:

1)基于样本的迁移
2)基于特征的迁移
3)基于模型的迁移

4)基于关系的迁移



点击上方 蓝字关注我!


一、基于样本的迁移

1、原理

基于样本的迁移学习方法(Instance based Transfer Learning)根据一定的权重生成规则,对数据样本进行重用,来进行迁移学习。

2、示意图

3、前人研究

  • 【问题】

  • 在迁移学习中,对于源域Ds和目标域Dt,通常假定产生它们的概率分布是不同且未知的(P(xs)̸=P(xt))。另外,由于实例的维度和数量通常都非常大,因此,直接对P(xs)和P(xt)进行估计是不可行的。

  • 【近期研究】

    • *在最新的研究成果中,香港科技大学的Tan等人扩展了实例迁移学习方法的应用场景,提出了传递迁移学习方法(Transitive Transfer Learning, TTL) [Tan et al., 2015]和远域迁移学习(Distant Domain Transfer Learning, DDTL) [Tan et al., 2017],利用联合矩阵分解和深度神经网络,将迁移学习应用于多个不相似的领域之间的知识共享,取得了良好的效果。

    • *文献[Huang et al., 2007]提出核均值匹配方法(Kernel MeanMatching, KMM)对于概率分布进行估计,目标是使得加权后的源域和目标域的概率分布尽可能相近。

    • *上海交通大学Dai等人[Dai et al., 2007]提出了TrAdaboost方法,将AdaBoost的思想应用于迁移学习中,提高有利于目标分类任务的实例权重、降低不利于目标分类任务的实例权重,并基于PAC理论推导了模型的泛化误差上界。TrAdaBoost方法是此方面的经典研究之一。

    • *因而,大量的研究工作[Khan and Heisterkamp, ,Zadrozny, ,Cortes et al., ,Dai et al., ,Tan et al., ,Tan et al., ]着眼于对源域和目标域的分布比值进行估计(P(xt)/P(xs))。所估计得到的比值即为样本的权重。这些方法通常都假设P(xt)P(xs)<1并且源域和目标域的条件概率分布相同(P(yjxs) =P(yjxt))。

    • 【局限】

    • 虽然实例权重法具有较好的理论支撑、容易推导泛化误差上界,但这类方法通常只在领域间分布差异较小时有效。

      • 因此对自然语言处理、计算机视觉等任务效果并不理想。

二、基于特征的迁移(最热门)

1、原理

基于特征的迁移方法(Feature based Transfer Learning)是指将通过特征变换的方式互相迁移,来减少源域和目标域之间的差距;

或者将源域和目标域的数据特征变换到统一特征空间中,然后利用传统的机器学习方法进行分类识别。根据特征的同构和异构性,又可以分为同构和异构迁移学习。

2、示意图

3、前人研究

  • 基于特征的迁移学习方法是迁移学习领域中最热门的研究方法,这类方法通常假设源域和目标域间有一些交叉的特征。

    • 近年来,基于特征的迁移学习方法大多与神经网络进行结合[Long et al., 2015a,Long et al., 2016,Long et al., 2017,Sener et al., 2016],在神经网络的训练中进行学习特征和模型的迁移。

    • 澳大利亚卧龙岗大学的Jing Zhang等人[Zhang et al., 2017a]提出对于源域和目标域各自训练不同的变换矩阵,从而达到迁移学习的目标

    • 清华大学龙明盛等人[Long et al., 2014b]提出在最小化分布距离的同时,加入实例选择的迁移联合匹配(Tran-fer Joint Matching, TJM)方法,将实例和特征迁移学习方法进行了有机的结合。

    • 加州大学伯克利分校的Blitzer等人[Blitzer et al., 2006]提出了一种基于结构对应的学习方法(Structural CorrespondingLearning, SCL),该算法可以通过映射将一个空间中独有的一些特征变换到其他所有空间中的轴特征上,然后在该特征上使用机器学习的算法进行分类预测。

    • 香港科技大学的Pan等人[Pan et al., 2011]提出的迁移成分分析方法(Transfer Component Analysis, TCA)是其中较为典型的一个方法。该方法的核心内容是以最大均值差异(Maximum Mean Discrepancy, MMD) [Borgwardt et al., 2006]作为度量准则,将不同数据领域中的分布差异最小化。

  •  

三、基于模型的迁移

1、原理

  • 原理:基于模型的迁移方法(Parameter/Model based Transfer Learning)是指从源域和目标域中找到他们之间共享的参数信息,以实现迁移的方法

  • 这种迁移方式要求的假设条件是:源域中的数据与目标域中的数据可以共享一些模型的参数。

2、示意图

3、前人研究

  • 研究

    • 中科院计算所的Zhao等人[Zhao et al., 2011]提出了TransEMDT方法。该方法首先针对已有标记的数据,利用决策树构建鲁棒性的行为识别模型,然后针对无标定数据,利用K-Means聚类方法寻找最优化的标定参数。

    • 西安邮电大学的Deng等人[Deng et al., ]也用超限学习机做了类似的工作。

    • 香港科技大学的Pan等人[Pan et al., a]利用HMM,针对Wifi室内定位在不同设备、不同时间和不同空间下动态变化的特点,进行不同分布下的室内定位研究。

    • 另一部分研究人员对支持向量机SVM进行了改进研究[Nater et al., 2011,Li et al., 2012]。这些方法假定SVM中的权重向量w可以分成两个部分:w=wo+v,其中w0代表源域和目标域的共享部分,v代表了对于不同领域的特定处理。

    • 在最新的研究成果中,香港科技大学的Wei等人[Wei et al., b]将社交信息加入迁移学习方法的正则项中,对方法进行了改进。

    • 清华大学龙明盛等人[Long et al., a,Long et al., ,Long et al., ]改进了深度网络结构,通过在网络中加入概率分布适配层,进一步提高了深度迁移学习网络对于大数据的泛化能力。

  • 通过对现有工作的调研可以发现,目前绝大多数基于模型的迁移学习方法都与深度神经网络进行结合[Long et al., 2015a,Long et al., 2016,Long et al., 2017,Tzeng et al., 2015,Long et al., 2016]。

    • 这些方法对现有的一些神经网络结构进行修改,在网络中加入领域适配层,然后联合进行训练。

    • 因此,这些方法也可以看作是基于模型、特征的方法的结合。

四、基于关系的迁移

1、原理

基于关系的迁移学习方法(Relation Based Transfer Learning)与上述三种方法具有截然不同的思路。这种方法比较关注源域和目标域的样本之间的关系。

2、示意图

3、前人研究

基于关系的迁移学习方法的相关研究工作非常少,仅有几篇连贯式的文章讨论:[Mihalkova et al., ,Mihalkova and Mooney, ,Davis and Domingos, ]。

这些文章都借助于马尔科夫逻辑网络(Markov Logic Net)来挖掘不同领域之间的关系相似性。