大家好,欢迎来到IT知识分享网。
本人已经打算将这一系列博文做成动画趣味科普的形式来呈现,感兴趣的话可以点这里。
现实中常遇到多分类学习任务。有些二分类算法可以直接推广到多分类,但在更多情形下,我们是基于一些策略,利用二分类算法来解决多分类问题。例如:OvO、OvR。
OvO
假设现在训练数据集的分布如下图所示(其中A
,B
,C
代表训练数据的类别):
如果想要使用逻辑回归算法来解决这种3
分类问题,可以使用OvO
。OvO
(One Vs One
)是使用二分类算法来解决多分类问题的一种策略。从字面意思可以看出它的核心思想就是一对一。所谓的“一”,指的是类别。而“对”指的是从训练集中划分不同的两个类别的组合来训练出多个分类器。
划分的规则很简单,就是组合( C n 2 C_n^2 Cn2,其中n
表示训练集中类别的数量,在这个例子中为3
)。如下图所示(其中每一个矩形框代表一种划分):
分别用这3
种划分,划分出来的训练集训练二分类分类器,就能得到3
个分类器。此时训练阶段已经完毕。如下图所示:
在预测阶段,只需要将测试样本分别扔给训练阶段训练好的3
个分类器进行预测,最后将3
个分类器预测出的结果进行投票统计,票数最高的结果为预测结果。如下图所示:
OvR
假设现在训练数据集的分布如下图所示(其中A
,B
,C
代表训练数据的类别):
如果想要使用逻辑回归算法来解决这种3
分类问题,可以使用OvR
。OvR
(One Vs Rest
)是使用二分类算法来解决多分类问题的一种策略。从字面意思可以看出它的核心思想就是一对剩余。一对剩余的意思是当要对n
种类别的样本进行分类时,分别取一种样本作为一类,将剩余的所有类型的样本看做另一类,这样就形成了n
个二分类问题。所以和OvO
一样,在训练阶段需要进行划分。
划分也很简单,如下图所示:
分别用这3
种划分,划分出来的训练集训练二分类分类器,就能得到3
个分类器。此时训练阶段已经完毕。如下图所示:
在预测阶段,只需要将测试样本分别扔给训练阶段训练好的3
个分类器进行预测,最后选概率最高的类别作为最终结果。如下图所示:
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/155673.html