跟我一起机器学习系列文章将首发于公众号:月来客栈,欢迎文末扫码关注!
在前面一系列的文章中,我们已经学习了多种分类算法模型,对于机器学习算是有了一定的了解。在接下来的几篇文章中,我们将开始逐步介绍《跟我一起机器学习》中的最后一个分类模型——支持向量机。**支持向量机(Support Vector Machine)**可以算得上是机器学习算法中最经典的模型之一。之所以称之为经典是因为其有着近乎完美的数学推导与证明,同时也正是因为这个原因,使得其求解过程有着很高的数学门槛。因此,对于接下来的内容,笔者也仅仅只会从支持向量机的建模过程出发,介绍支持向量机的主要思想以及它需要解决的问题。至于最后的求解过程,我们依旧通过现有的开源框架来实现。
1 引例
那什么是支持向量机呢?初学者刚接触到这个算法时基本上都会被这个名字所困扰,到底啥叫“向量机”,听起来总觉得怪怪的。因此首先需要明白的是,支持向量机其实和"机"一点关系也没有,算法的关键在于“支持向量”。并且支持向量机主要也是用于解决分类问题的一个算法模型,只是它相较于前面介绍的几种模型有着更好的泛化能力。

如图所示为四种模型对同一个数据集的分类后的决策边界,可以看到尽管每个模型都能准确地将数据集分成两类,但是从各自的决策边界来看却有着很大的区别。为了能清楚的进行观察,我们将四个决策边界放到一张图里面。

如图所示便为四个模型的决策边界放到一张图中的样子,可以发现模型c(灰色直线)的泛化能力应该会是最差的,因为从数据的分布位置来看真实的决策面应该是一条左高右低倾斜的直线。其次是模型c(蓝色直线)的泛化能力,因为模型c的决策面太过于的偏向于棕色的样本点;有一个原则就是:当没有明确的先验知识告诉我们决策面应该偏向于哪边时,最好的做法应该是居于中间的位置(类似于模型a和模型d的决策面)。那么模型a和模型d谁又更胜一筹呢?

从图中一眼便可以看出,模型d的决策面更居于“中间”(事实上就是在中间),而模型a的决策面也略微的偏向于棕色样本点。因此在这四个模型中,模型d的泛化能力通常情况下都会是最强的。那有的朋友可能就会问,假如我们把模型a中的决策面向上移动一点,使得其也居于两条虚线之间,那么此时应该选择谁呢?答案当然依旧是d,原因在于模型d的决策面还满足另外一个条件:到两条虚线的距离最大。换句话说也就是,模型d中两条虚线之间的距离要大于模型a中两条虚线之间的距离。说到这里,相信大家已经明白了,其实模型d对应的就是支持向量机模型,而虚线上的两个点称为支持向量。可以发现其实对决策面其决定性作用的也只有这两个样本点,说白了就是通过这两个点就能训练得到模型d。
说到这里可以得出的结论就是,通过支持向量机我们便能够得到一个最优超平面,该超平面满足到左右两侧最近样本点的间隔相同,且离最近样本点的间隔最大。那我们又该如何来找到这个超平面呢?
2 间隔的度量方式
2.1 超平面的表达
在谈距离之前,我们先把超平面的表达式给写出来:
w
T
x
+
b
=
0
(1)
w^Tx+b=0\tag{1}
wTx+b=0(1)
其中
b
b
b表示截距;另一个需要说明的就是,我们在SVM中,用
y
=
+
1
,
y
=
−
1
y=+1,y=-1
y=+1,y=−1分别来表示正样本和负样本。从表达式我们可以知道,当通过某种方法找到参数
w
,
b
w,b
w,b后,也就代表确立了超平面。那么应该从哪个地方入手呢? 当然就是从SVM的核心思想:最大化间隔(gap) 入手。
2.2 函数间隔(functional margin)
上面说到SVM的核心思想就是最大化间隔,既然是最大化间隔那总得有个度量间隔的量才行。我们知道,当超平面 w T x + b = 0 w^Tx+b=0 wTx+b=0确定后, ∣ w T x + b ∣ |w^Tx+b| ∣wTx+b∣可以相对的来表示每个样本点到超平面的距离,也就是说虽然实际距离不是 ∣ w T x + b ∣ |w^Tx+b| ∣wTx+b∣这么多,但是依旧遵循绝对值大的离超平面更远的原则。如下图所示:

其中直线方程为: x 1 + x 2 − 3 = 0 x_1+x_2-3=0 x1+x2−3=0,且 A , B A,B A,B分别为正负两个样本点,即 y A = + 1 , y B = − 1 y^A=+1,y^B=-1 yA=+1,yB=−1,则此时有:
点 A A A到直线的相对距离为 ∣ w T x + b ∣ = ∣ 2 + 3 − 3 ∣ = 2 |w^Tx+b|=|2+3-3|=2 ∣wTx+b∣=∣2+3−3∣=2,点 B B B到直线的相对距离为 ∣ w T x + b ∣ = ∣ 1 + 1 − 3 ∣ = 1 |w^Tx+b|=|1+1-3|=1 ∣wTx+b∣=∣1+1−3∣=1。
同时我们可以注意到,只要分类正确,
y
(
i
)
(
w
T
x
+
b
)
>
0
y^{(i)}(w^Tx+b)>0
y(i)(wTx+b)>0就成立;或者说如果
y
(
i
)
(
w
T
x
+
b
)
>
0
y^{(i)}(w^Tx+b)>0
y(i)(wTx+b)>0成立,就意味着分类正确,且其值越大说明其分类正确的可信度就越高,而这也是
y
y
y为什么取
±
1
\pm1
±1的原因。所以此时我们将训练集中所有样本点到超平面的函数间隔定义为如下:
γ
^
(
i
)
=
y
(
i
)
(
w
T
x
(
i
)
+
b
)
(2)
\hat{\gamma}^{(i)}=y^{(i)}(w^Tx^{(i)}+b)\tag {2}
γ^(i)=y(i)(wTx(i)+b)(2)
且定义训练集到超平面的函数间隔中的最小值为:
γ
^
=
min
i
=
1
,
2...
m
γ
^
(
i
)
(3)
\hat{\gamma}=\min_{i=1,2...m}\hat{\gamma}^{(i)}\tag{3}
γ^=i=1,2...mminγ^(i)(3)
但是我们发现,如果同时在方程
(
1
)
(1)
(1)的两边乘以
k
(
k
≠
0
)
k(k\neq0)
k(k=0);虽然此时超平并没有发生改变,但是相对距离却变成了之前的
K
K
K倍,所以仅有函数间隔明显是不够的,还要引入另外一种度量方式——几何间隔。
2.3 几何间隔
如下图所示,所谓几何间隔(geometric margins),就是样本点到直线实实在在的距离。只要直线不发生改变,那么间隔就不会发生任何改变,这样就避免了在函数间隔中所存在的问题。那么应该如何来表示几何间隔呢?

如图所示,直线方程为
w
T
x
+
b
=
0
w^Tx+b=0
wTx+b=0,
A
A
A为数据集中任意一个点
x
(
i
)
x^{(i)}
x(i),
γ
(
i
)
\gamma^{(i)}
γ(i)为
A
A
A到直线的距离,可以看成是向量
B
A
⃗
\vec{BA}
BA的模;
W
W
W为垂直于
w
T
x
+
b
=
0
w^Tx+b=0
wTx+b=0的法向量。此时我们可以得到点B的坐标为:
x
(
i
)
−
γ
(
i
)
⋅
W
∣
∣
W
∣
∣
(4)
x^{(i)}-\gamma^{(i)}\cdot\frac{W}{||W||}\tag{4}
x(i)−γ(i)⋅∣∣W∣∣W(4)
又因为
B
B
B点在直线上,所以满足:
w
T
(
x
(
i
)
−
γ
(
i
)
⋅
W
∣
∣
W
∣
∣
)
+
b
=
0
(5)
w^T(x^{(i)}-\gamma^{(i)}\cdot\frac{W}{||W||})+b=0\tag{5}
wT(x(i)−γ(i)⋅∣∣W∣∣W)+b=0(5)
因此我们可以通过化简等式
(
5
)
(5)
(5)来得到几何距离的计算公式,但问题在于
W
W
W该怎么得到?假设有一直线
w
T
x
+
b
=
0
,
w
=
(
w
1
,
w
2
)
T
w^Tx+b=0,w=(w_1,w_2)^T
wTx+b=0,w=(w1,w2)T,(即:
w
1
x
1
+
w
2
x
2
+
b
=
0
w_1x_1+w_2x_2+b=0
w1x1+w2x2+b=0)那么该直线的斜率
k
1
=
−
w
1
/
w
2
k_1=-w_1/w_2
k1=−w1/w2,又因为
W
W
W垂直于直线,所以
W
W
W的斜率为
k
2
=
w
2
/
w
1
k_2=w_2/w_1
k2=w2/w1。因此
W
W
W的一个方向向量为
(
1
,
k
2
)
(1,k_2)
(1,k2),再同时乘以
w
1
w_1
w1即可得到
W
=
(
w
1
,
w
2
)
=
w
W=(w_1,w_2)=w
W=(w1,w2)=w。也即是
W
W
W其实就是
w
w
w。
所以根据公式
(
5
)
(5)
(5)有:
w
T
(
x
(
i
)
−
γ
(
i
)
⋅
w
∣
∣
w
∣
∣
)
+
b
=
0
(6)
w^T\large(x^{(i)}-\gamma^{(i)}\cdot\frac{w}{||w||})+b=0\tag{6}
wT(x(i)−γ(i)⋅∣∣w∣∣w)+b=0(6)
因此几何距离计算公式为:
γ
(
i
)
=
w
T
x
(
i
)
+
b
∣
∣
w
∣
∣
=
(
w
∣
∣
w
∣
∣
)
T
x
(
i
)
+
b
∣
∣
w
∣
∣
(7)
\gamma^{(i)}=\frac{w^Tx^{(i)}+b}{||w||}=\large(\frac{w}{||w||})^Tx^{(i)}+\frac{b}{||w||}\tag{7}
γ(i)=∣∣w∣∣wTx(i)+b=(∣∣w∣∣w)Tx(i)+∣∣w∣∣b(7)
如图:

直线方程为:
x
1
+
x
2
−
3
=
0
x_1+x_2-3=0
x1+x2−3=0,
A
A
A为正样本,
B
B
B为负样本,即
y
A
=
+
1
,
y
B
=
−
1
y^A=+1,y^B=-1
yA=+1,yB=−1则:
γ
A
=
(
w
∣
∣
w
∣
∣
)
T
x
(
A
)
+
b
∣
∣
w
∣
∣
=
(
(
1
,
1
)
1
+
1
)
T
(
2
,
3
)
+
−
3
1
+
1
=
2
γ
B
=
(
w
∣
∣
w
∣
∣
)
T
x
(
A
)
+
b
∣
∣
w
∣
∣
=
(
(
1
,
1
)
1
+
1
)
T
(
1
,
1
)
+
−
3
1
+
1
=
−
1
2
\begin{aligned} \gamma^A=\large(\frac{w}{||w||})^Tx^{(A)}+\frac{b}{||w||}=(\frac{(1,1)}{\sqrt{1+1}})^T(2,3)+\frac{-3}{\sqrt{1+1}}=\sqrt{2}\\[2ex] \gamma^B=\large(\frac{w}{||w||})^Tx^{(A)}+\frac{b}{||w||}=(\frac{(1,1)}{\sqrt{1+1}})^T(1,1)+\frac{-3}{\sqrt{1+1}}=\frac{-1}{\sqrt{2}} \end{aligned}
γA=(∣∣w∣∣w)Tx(A)+∣∣w∣∣b=(1+1(1,1))T(2,3)+1+1−3=2γB=(∣∣w∣∣w)Tx(A)+∣∣w∣∣b=(1+1(1,1))T(1,1)+1+1−3=2−1
此时我们发现,这是一个有符号的距离:正样本到直线的距离为正;负样本到直线的距离为负。但无论如何,同函数间隔一样只要是分类正确的情况下都满足
y
(
i
)
⋅
γ
(
i
)
>
0
y^{(i)}\cdot\gamma^{(i)}>0
y(i)⋅γ(i)>0。同样,我们将数据集中所有样本点到平面的几何间隔定义为如下形式:
γ
(
i
)
=
y
(
i
)
(
(
w
∣
∣
w
∣
∣
)
T
x
(
i
)
+
b
∣
∣
w
∣
∣
)
(8)
\gamma^{(i)}=y^{(i)}\large(\large(\frac{w}{||w||})^Tx^{(i)}+\frac{b}{||w||}\tag{8})
γ(i)=y(i)((∣∣w∣∣w)Tx(i)+∣∣w∣∣b)(8)
且定义训练集到超平面的几何间隔中的最小值:
γ
=
min
i
=
1
,
.
.
.
m
γ
(
i
)
(9)
\gamma=\min_{i=1,...m}\gamma^{(i)}\tag{9}
γ=i=1,...mminγ(i)(9)
同时,我们还可以发现函数间隔同几何间隔存在以下关系:
γ = γ ^ ∣ ∣ w ∣ ∣ (10) \begin{aligned} \gamma=\frac{\hat{\gamma}}{||w||} \end{aligned}\tag{10} γ=∣∣w∣∣γ^(10)
可以发现几何间隔其实就是在函数间隔的基础上施加了一个约束限制。此时我们已经有了对于间隔度量的方式,所以下一步自然就是最大化这个间隔来求得分类超平面。
3 最大间隔分类器
什么是最大间隔分类器(Maximum margin classifiers) 呢?上面我们说到有了间隔的度量方式之后,接着就是最大化这一间隔,然后求得超平面 w T x + b = 0 w^Tx+b=0 wTx+b=0。然后通过函数 g ( w T x + b ) g(w^Tx+b) g(wTx+b)将所有样本点输出只含 { − 1 , + 1 } \{-1,+1\} {−1,+1}的值,以此来完成对数据集样本的分类任务。而 g ( w T x + b ) g(w^Tx+b) g(wTx+b)就是一个分类器,又因为是通过最大化几何间隔得来的,故将其称之为最大间隔分类器。
在上面的公式
(
9
)
(9)
(9)中我们得到了几何间隔的表达式,因此再对其最大化即可:
max
w
,
b
γ
s
.
t
.
y
(
i
)
(
(
w
∣
∣
w
∣
∣
)
T
x
(
i
)
+
b
∣
∣
w
∣
∣
)
≥
γ
,
i
=
1
,
2
,
.
.
.
m
(11)
\begin{aligned} &\max_{w,b} \gamma\\[1ex] &s.t.\;\;y^{(i)}\large(\large(\frac{w}{||w||})^Tx^{(i)}+\frac{b}{||w||})\geq\gamma,i=1,2,...m \end{aligned}\tag{11}
w,bmaxγs.t.y(i)((∣∣w∣∣w)Tx(i)+∣∣w∣∣b)≥γ,i=1,2,...m(11)
式子
(
11
)
(11)
(11)的含义就是找到参数
w
,
b
,
γ
w,b,\gamma
w,b,γ,使得满足以下条件:
- γ \gamma γ尽可能大,因为目的就是最大化 γ \gamma γ;
- 同时要使得样本中所有的几何距离都大于 γ \gamma γ,因为由式子 ( 9 ) (9) (9)可以知道 γ \gamma γ是所有间隔中的最小值;
所以,进一步由函数间隔与几何间隔的关系
(
11
)
(11)
(11)我们可以得出以下优化问题:
max
w
,
b
γ
^
∣
∣
w
∣
∣
s
.
t
.
y
(
i
)
(
w
T
x
(
i
)
+
b
)
≥
γ
^
,
i
=
1
,
2
,
.
.
.
m
(12)
\begin{aligned} &\max_{w,b} \frac{\hat{\gamma}}{||w||}\\[1ex] &s.t.\;\;y^{(i)}\large(w^Tx^{(i)}+b)\geq\hat{\gamma},i=1,2,...m \end{aligned}\tag{12}
w,bmax∣∣w∣∣γ^s.t.y(i)(wTx(i)+b)≥γ^,i=1,2,...m(12)
此时我们发现,约束条件几何间隔依然变成了函数间隔,准确说应该既是函数间隔同样也是几何间隔。既然可以看做函数间隔,那么令 γ ^ = 1 \hat{\gamma}=1 γ^=1自然也不会影响最终的优化结果。
所以上述优化问题
(
12
)
(12)
(12)就可以转化为如下形式:
max
w
,
b
1
∣
∣
w
∣
∣
s
.
t
.
y
(
i
)
(
w
T
x
(
i
)
+
b
)
≥
1
,
i
=
1
,
2
,
.
.
.
m
(13)
\begin{aligned} &\max_{w,b} \frac{1}{||w||}\\[1ex] &s.t.\;\;y^{(i)}\large(w^Tx^{(i)}+b)\geq1,i=1,2,...m \end{aligned}\tag{13}
w,bmax∣∣w∣∣1s.t.y(i)(wTx(i)+b)≥1,i=1,2,...m(13)
但是对于 ( 13 ) (13) (13)这样一个优化问题,我们还是无法直接解决。但我们知道,对于 f ( x ) > 0 f(x)>0 f(x)>0, max f ( x ) ⟺ min 1 f ( x ) ⟺ min 1 ( f ( x ) ) n \max f(x)\iff \min\frac{1}{f(x)}\iff \min \frac{1}{(f(x))^n} maxf(x)⟺minf(x)1⟺min(f(x))n1三者求解出的 x x x都相同。所以可以进一步将式子 ( 13 ) (13) (13)化简为:
min w , b 1 2 ∣ ∣ w ∣ ∣ 2 s . t . y ( i ) ( w T x ( i ) + b ) ≥ 1 , i = 1 , 2 , . . . m (14) \begin{aligned} &\min_{w,b} \frac{1}{2}{||w||^2}\\[1ex] &s.t.\;\;y^{(i)}\large(w^Tx^{(i)}+b)\geq1,i=1,2,...m \end{aligned}\tag{14} w,bmin21∣∣w∣∣2s.t.y(i)(wTx(i)+b)≥1,i=1,2,...m(14)
之所以要进行这样的处理,是因为我们可以将其转换为凸优化问题,用现有的方法进行求解(前面在乘以 1 2 \frac{1}{2} 21是为了后面求导的时候能更方便,同时这也不会影响优化结果)。到这一步,我们就算是搞清楚了SVM的基本思想,以及其需要求解的优化问题。
4 总结
在这篇文章中,笔者首先通过一个引例介绍了支持向量机的核心思想;然后介绍了支持向量机中衡量间隔的两种度量方式:函数间隔和几何间隔;最后介绍了如何通过结合函数间隔与几何间隔来建模支持向量机的优化问题。本次内容就到此结束,感谢阅读!
若有任何疑问与见解,请发邮件至moon-hotel@hotmail.com并附上文章链接,青山不改,绿水长流,月来客栈见!
引用
[1]《统计机器学习(第二版)》李航,公众号回复“统计学习方法”即可获得电子版与讲义
[2] Andrew Ng. CS229. Note3 http://cs229.stanford.edu/notes/cs229-notes3.pdf
[3]学习July博文总结——支持向量机(SVM)的深入理解(上)http://blog.csdn.net/ajianyingxiaoqinghan/article/details/72897399
[4] 示例代码:关注公众号回复“示例代码”即可直接获取!
