大家好,欢迎来到IT知识分享网。
最近做评论分析碰到一些瓶颈,阅读了众多论文,还是觉得刘兵老师靠谱,实用派的翘楚。于是了解了他近年来发的论文,发现了一个很新颖的词”lifelong”,而且还在KDD 2016做tutorial,题为《Lifelong Machine Learning》 [1] 。
何为Lifelong Machine Learning
传统的ML(他们叫做ML 1.0)都是单独地对一个任务进行学习,也就是给定一个数据集,运行一个ML算法,并没有考虑到以前学习过的知识,可以说是隔离(isolated)地学习。
他们叫这个LML为ML 2.0。
LML例子
情感分析
(1)情感分类 [3]
我们可以不对每个领域进行标注或者至少不标注那么多吗?
利用过去的信息
大家都知道一个A领域的情感分类器不能用于B领域,那怎么办?
- 经典的解决方法:迁移学习(transfer learning)
- 利用源领域的标注数据来帮助目标领域的学习
- 两个领域必须非常相似
但这可能不是最好的方法。
Lifelong情感分类(Chen, Ma and Liu 2015)
想象我们已经在大量的领域/任务用它们各自的训练数据D学习了知识。
那我们需要新领域T的数据吗?
- 大多数情况不需要——一个幼稚的”LML”方法,就是引入所有数据来工作。
- 能提高19%准确率
- 其他情况需要:例如我们用D构建一个SC(sentiment classifier),但它对toy评论效果很差
- 因为”toy”这个词(可能想表达领域太不相似)
(2)Lifelong Aspect抽取 [4] [5] [6]
观察:
- 不同产品或领域的评论有着大量的aspect重叠
- 每个产品评论领域都有aspect price
- 大部分电子产品都有aspect battery
- 很多产品都有aspect screen
- 不用这些aspect显得很silly
其他LML应用
Lifelong machine learning跟传统ML一样,也分有监督、半监督、无监督和强化学习,后续会在博客中选择性更新。
Reference
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/137549.html