迁移学习的两种极端形式是一次性学习和零学习,有时也称为零数据学习。在One shot learning中,只有一个被标记的转移任务的例子;而对于zero shot learning学习任务,是想能够在没有获得任何训练数据的情况下解决一个问题。one-shot learning 致力于从一个或少量的图片中学习到目标分类的信息。Fei Fei等人在2006证明 One shot learning 是可能的。
在分类问题中,因为数据库大小有限,因此在使用分类模型进行预测时,出现了在训练集没有出现过的类别。举个例子,我们有个小型数据库,里面所含的类别只有人、鸟、汽车,经过我们的训练,发现模型对于这些类别的目标已经有很好的性能了,但是突然出现了一个新的类别——狗,此时模型并不认识这个类别,这也就意味着模型肯定没法对这个新的类别进行新的分类。
这个问题就是一个典型的因训练样本不足而导致的模型出现欠缺的问题,那么该如何缓解这种问题呢?最简单直接的方法就是大量的增加样本,让模型学习更多的类别,但是如果采集一张新的类别样本的成本太高,或者几乎没法采集到某些类别的样本,此时该怎么办?也就是说如何在数据库有限的情况下,让模型竟可能的容忍新的类别,或者训练集中没有出现过的样本?
上述问题就是一个典型的zero-shot learning问题,zero-shot learning的根本目的就是解决这种类别从未出现在训练集中的情况。
Zero-shot Learning
Zero-shot Learning,零次学习。
成品模型对于训练集中没有出现过的类别,能自动创造出相应的映射: X → Y。
One-shot Learning
One-shot Learning,一次学习。它是机器视觉中的物体分类问题。然而大多数基于机器学习的对象分类算法都需要对成百上千的图像和非常大的数据集进行训练,但One-shot Learning的目的是从一个(或只有几个)训练图像中学习关于对象类别的信息。
One-shot learning is an object categorization problem in computer vision. Whereas most machine learning based object categorization algorithms require training on hundreds or thousands of images and very large datasets, one-shot learning aims to learn information about object categories from one, or only a few, training images.
在One-shot Learning中,(li feifei,2006)论文中每个类别的的训练图像1-5张,并且没有使用手动校准。
原理(贝叶斯方法):对比可能有一个新的对象,或仅仅是背景的概率
R=\frac{P(O_fg|I,I_t)}{P(O_bg|I,I_t)}=\frac{P(I|,I_t,O_fg)P(O_fg)}{P(I|I_t,O_bg)P(O_bg)}
R\geq THRESHOLD
\propto \frac{\int P(X,A|\theta )P(\theta|X_t,A_t,O_{fg})\partial \theta}{\int P(X,A|\theta_{bg} )P(\theta_{bg}|X_t,A_t,O_{bg})\partial \theta_{bg}}
它对每个图像的特征都会建模并抽取出来。将特征数据分割成形状和外观数据,就会变成:
\propto \frac{\int P(X,A|\theta )P(\theta|X_t,A_t,O_{fg})\partial \theta}{\int P(X,A|\theta_{bg} )P(\theta_{bg}|X_t,A_t,O_{bg})\partial \theta_{bg}}
那么likelihood Ρ ( X , A|θ ):
使用constellation model模型,这里h是 P (4)的索引值, P (4)就是假设的对象特征。
P(X,A|\theta)=\sum {h\in H}P(X,A,h|\theta)=\sum {h\in H}P(X|h,\theta^X)P(A|h,\theta^A)P(h,\theta)
这里的假设是形状和外观是独立的。
只是背景的可能性:
假设:背景模型是固定(只存在一个TETA),否则积分会出问题。这里只有一个背景假设,就是NULL 假设。
那么我们就可以得到背景的概率:
接下可以用以下方法来计算R:
- Maximum Likelihood approach(最大似然)
- Maximum A posteriori approach(最大后验概率)
- Conjugate Densities(共轭密度)
来源:wiki , URL: https://en.wikipedia.org/wiki/One-shot_learning
Zero-shot Learning (ZSL) 零数据学习,它就是在没有可用的类或任务的训练数据,并且只提供类或任务的描述来解决图像物体的分类问题。零数据学习对于需要区分的类或要解决的任务集非常大且不完全由训练数据覆盖的问题非常有用。
ZSL方法的一般流程是:首先训练一个预测模型,该模型可以将视觉数据映射到语义表示数据。之后,只要知道它们的语义描述,就可以识别新的对象。但是,现有的方法不能扩展新的不可见类的训练数据。如下图所示,将动物的特征用语义的方式进行储存。
对于一个物体的定义,下面的方法可以对它各种属性进行整合:
- Relate terms using co-occurrences
- Hierarchical Relations
- Word2Vec
来源:web; URL:https://en.wikipedia.org/wiki/One-shot_learning
发展历史
迁移学习或归纳迁移是机器学习中的一个研究问题,它关注的是在解决一个问题的同时,并将其应用到另一个不同但又相关的问题中,对所获得的知识进行存储。例如,在学习识别汽车的过程中而获得的知识,可以应用到识别卡车的过程中。
Lorien Pratt是最早被引用的关于机器学习中的迁移的工作,他在1993年制定了基于判别的迁移(discriminability-based transfer,DBT)算法。
1997年,《机器学习》(Machine Learning) 杂志出版了专刊《transfer learning》,到1998年,这一领域已经发展到包括多任务学习(multi-task Learning)、以及理论基础分析。 Learning to Learn,由Pratt和Sebastian Thrun编辑,是1998年对这一主题的回顾。
迁移学习也被应用于认知科学 cognitive science,《Connection Science 》杂志发表了一篇关于神经网络在1996年通过转移再利用问题的论文。
ICCV 2000的Miller, E. G., Matsakis, N. E., & Viola, P. A. 提出的一种贝叶斯单次学习算法的方法,它是通过模型参数的知识转移来学习一种新的对象类别,这种类别在外观上与以前学过的类别相似。在他们的论文中,图像可以表示为纹理texture和形状shape,也可以表示为已转换的潜在图像。
Fei-Fei L, Fergus R, Perona P.提出在IEEE Transactions on Pattern Analysis and Machine Intelligence会上提出 One-shot learning of object categories,使用已经生成对象类别模型和变分贝叶斯框架,对视觉对象类别学习。大大减少了训练数据的数目。
Larochelle H, Erhan D, Bengio Y.提出Zero shot learning,它不需要训练数据,只需要收集物体的语义信息,在之后,直接对数据根据之前的语义信息进行分类。
2009年,Palatucci M, Pomerleau D, Hinton G E,在Advances in neural information processing systems上使用语义输出代码来实现Zero-shot learning。这也是一个必将经典的应用。
Socher, R., Ganjoo, M., Manning, C. D., & Ng, A.通过交叉模式学习Zero shot learning,与以往的Zero shot learning模型不同的是,Zero shot learning模型只能区分不可见类,然而这个模型可以在可见类和不可见类的混合上运行,同时在拥有数千个训练图像的类上获得很好的结果,也可以在不可见类上获得不错的表现。拓展了Zero shot learning使用范围。
出处:paper, URL:Automatic Language Identification in Texts: A Survey
主要事件
年份 | 事件 | 相关论文 |
2000 | Miller, E. G., Matsakis, N. E., & Viola, P. A. 提出的一种贝叶斯单次学习算法的方法 | Miller, E. G., Matsakis, N. E., & Viola, P. A. (2000). Learning from one example through shared densities on transforms. In Computer Vision and Pattern Recognition, 2000. Proceedings. IEEE Conference on (Vol. 1, pp. 464-471). IEEE. |
2006 | Fei-Fei L, Fergus R, Perona P.提出one shot learning | Fei-Fei, L., Fergus, R., & Perona, P. (2006). One-shot learning of object categories. IEEE transactions on pattern analysis and machine intelligence, 28(4), 594-611. |
2008 | Larochelle H, Erhan D, Bengio Y.提出Zero shot learning | Larochelle, H., Erhan, D., & Bengio, Y. (2008, July). Zero-data learning of new tasks. In AAAI (Vol. 1, No. 2, p. 3). |
2009 | Palatucci M, Pomerleau D, Hinton G E,在Advances in neural information processing systems上使用语义输出代码来实现Zero-shot learning。 | Palatucci, M., Pomerleau, D., Hinton, G. E., & Mitchell, T. M. (2009). Zero-shot learning with semantic output codes. In Advances in neural information processing systems (pp. 1410-1418). |
2013 | Socher, R., Ganjoo, M., Manning, C. D., & Ng, A.通过交叉模式学习*Zero shot learning* | Socher, R., Ganjoo, M., Manning, C. D., & Ng, A. (2013). Zero-shot learning through cross-modal transfer. In Advances in neural information processing systems (pp. 935-943). |
发展分析
瓶颈
从几个例子中就能学习到分类物体的特征仍然是机器学习的一个关键挑战。尽管最近在视觉和语言等重要领域取得了进展,但标准的监督式深度学习并没有为从少量数据中快速学习新概念提供令人满意的解决方案。
未来发展方向
尽管one shot learning 和zero shot learning对于训练数据的数目要求很低,但是它的prework也影响着它的正确率,如果能够在简单的前提下,并能保证它的正确率是一个非常值得研究的工作。
Contributor: Ruiying Cai