SVM——支持向量机的学习入门
1、推荐文章
1、一文看懂SVM算法
2、图解机器学习|支持向量机模型详解
3、支持向量机的直观理解
2、分类问题
假设你的大学开设了一门机器学习(ML)课程。课程导师发现数学或统计学好的学生表现最佳。随着时间的推移,积累了一些数据,包括参加课程的学生的数学成绩和统计学成绩,以及在ML课程上的表现(使用两个标签描述,“优”、“差”)。
现在,课程导师想要判定数学、统计学分数和ML课程表现之间的关系。也许,基于这一发现,可以指定参加课程的前提条件。
这一问题如何求解?让我们从表示已有数据开始。我们可以绘制一张二维图形,其中一根轴表示数学成绩,另一根表示统计学成绩。这样每个学生就成了图上的一个点。
点的颜色——绿或红——表示学生在ML课程上的词表现:“优”或“差”。
当一名学生申请加入课程时,会被要求提供数学成绩和统计学成绩。基于现有的数据,可以对学生在ML课程上的表现进行有根据的猜测。
基本上我们想要的是某种“算法”,接受“评分元组”(math_score, stats_score)
输入,预测学生在图中是红点还是绿点(绿/红也称为分类或标签)。当然,这一算法某种程度上包括了已有数据中的模式,已有数据也称为训练数据。
在这个例子中,找到一条红聚类和绿聚类之间的直线,然后判断成绩元组位于线的哪一边,是一个好算法。
这里的直线是我们的分界(separating boundary)(因为它分离了标签)或者**分类器(classifier)**(我们使用它分类数据点)。上图显示了两种可能的分类器。
好 vs 差的分类器
这里有一个有趣的问题:上面的两条线都分开了红色聚类和绿色聚类。是否有很好的理由选择一条,不选择另一条呢?
别忘了,分类器的价值不在于它多么擅长分离训练数据。我们最终想要用它分类未见数据点(称为**测试数据)。因此,我们想要选择一条捕捉了训练集中的通用模式(general pattern)**的线,这样的线在测试集上表现出色的几率很大。
上面的第一条线看起来有点“歪斜”。下半部分看起来太接近红聚类,而上半部分则过于接近绿聚类。是的,它完美地分割了训练数据,但是如果它看到略微远离其聚类的测试数据点,它很有可能会弄错标签。
第二条线没有这个问题。
我们来看一个例子。下图中两个方形的测试数据点,两条线分配了不同的标签。显然,第二条线的分类更合理。
第二条线在正确分割训练数据的前提下,尽可能地同时远离两个聚类。保持在两个聚类的正中间,让第二条线的“风险”更小,为每个分类的数据分布留出了一些摇动的空间,因而能在测试集上取得更好的概括性。
SVM试图找到第二条线。上面我们通过可视化方法挑选了更好的分类器,但我们需要更准确一点地定义其中的理念,以便在一般情形下加以应用。下面是一个简化版本的SVM:
- 找到正确分类训练数据的一组直线。
- 在找到的所有直线中,选择那条离最接近的数据点距离最远的直线。
距离最接近的数据点称为支持向量(support vector)。支持向量定义的沿着分隔线的区域称为间隔(margin)。
下图显示了之前的第二条线,以及相应的支持向量(黑边数据点)和间隔(阴影区域)。
尽管上图显示的是直线和二维数据,SVM实际上适用于任何维度;在不同维度下,SVM寻找类似二维直线的东西。
例如,在三维情形下,SVM寻找一个平面(plane),而在更高维度下,SVM寻找一个超平面(hyperplane)——二维直线和三维平面在任意维度上的推广。这也正是支持向量得名的由来。在高维下,数据点是多维向量,间隔的边界也是超平面。支持向量位于间隔的边缘,“支撑”起间隔边界超平面。
可以被一条直线(更一般的,一个超平面)分割的数据称为**线性可分(linearly separable)数据。超平面起到线性分类器(linear classifier)**的作用。
允许误差
在上一节中,我们查看的是简单的情形,完美的线性可分数据。然而,现实世界通常是乱糟糟的。你几乎总是会碰到一些线性分类器无法正确分类的实例。
下图就是一个例子。
显然,如果我们使用一个线性分类器,我们将永远不能完美地分割数据点。我们同样不想干脆抛弃线性分类器,因为除了一些出轨数据点,线性分类器确实看起来很适合这个问题。
SVM允许我们通过参数C
指定愿意接受多少误差。C
让我们可以指定以下两者的折衷:
- 较宽的间隔。
- 正确分类训练数据。C值较高,意味着训练数据上容许的误差较少。
再重复一下,这是一个折衷。以间隔的宽度为代价得到训练数据上更好的分类。
下图展示了随着C值的增加,分类器和间隔的变化(图中没有画出支持向量):
上图中,随着C值的增加,分割线逐渐“翘起”。在高C值下,分割线试图容纳右下角大部分的红点。这大概不是我们想要的结果。而C=0.01的图像看起来更好的捕捉了一般的趋势,尽管和高C值情形相比,他在训练数据上的精确度较低。
同时,别忘了这是折衷,注意间隔是如何随着C值的增加而收窄的。
在上一节的例子中,间隔曾经是数据点的“无人区”。正如我们所见,这里再也无法同时得到良好的分割边界和相应的不包含数据点的间隔。总有一些数据点蔓延到了间隔地带。
由于现实世界的数据几乎从来都不是整洁的,因此决定较优的C值很重要。我们通常使用**交叉验证(cross-validation)**之类的技术选定较优的C值。
非线性可分数据
我们已经看到,支持向量机有条不紊地处理完美线性可分或基本上线性可分的数据。但是,如果数据完全线性不可分,SVM的表现如何呢?毕竟,很多现实世界数据是线性不可分的。当然,寻找超平面没法奏效了。这看起来可不妙,因为SVM很擅长找超平面。
下面是一个非线性可分数据的例子(这是知名的XOR数据集的一个变体),其中的斜线是SVM找到的线性分类器:
显然这结果不能让人满意。我们需要做得更好。
注意,关键的地方来了!我们已经有了一项非常擅长寻找超平面的技术,但是我们的数据却是非线性可分的。所以我们该怎么办?将数据投影到一个线性可分的空间,然后在那个空间寻找超平面!
下面我们将逐步讲解这一想法。
我们将上图中的数据投影到一个三维空间:
下面是投影到三维空间的数据。你是不是看到了一个可以悄悄放入一个平面的地方?
让我们在其上运行SVM:
太棒了!我们完美地分割了标签!现在让我们将这个平面投影到原本的二维空间:
训练集上精确度100%,同时没有过于接近数据!耶!
原空间的分割边界的形状由投影决定。在投影空间中,分割边界总是一个超平面。
别忘了,投影数据的主要目标是为了利用SVM寻找超平面的强大能力。
映射回原始空间后,分割边界不再是线性的了。不过,我们关于线性分割、间隔、支持向量的直觉在投影空间仍然成立。
我们可以看到,在左侧的投影空间中,三维的间隔是超平面之上的平面和之下的平面中间的区域(为了避免影响视觉效果,没有加上阴影),总共有4个支持向量,分别位于标识间隔的上平面和下平面。
而在右侧的原始空间中,分割边界和间隔都不再是线性的了。支持向量仍然在间隔的边缘,但单从原始空间的二维情形来看,支持向量好像缺了几个。
原文地址:https://blog.csdn.net/qq_43307934/article/details/142262531
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!