0%

『我爱机器学习』深入理解SVM(一) 原始问题和对偶问题

本文尽可能通俗、详细的介绍支持向量机SVM内容。

包括

  • 线性可分SVM
  • SVM对偶问题

线性可分SVM

回顾一下感知机,

数据:\(\{({\bf x_1}, y_1),({\bf x_2}, y_2),\cdots,({\bf x_n}, y_n) \}, \ y \in \{-1, + 1\}\)

模型为: \[ f(x) = {\rm sign}({\bf w^Tx}+b) \] 其损失函数为所有误分类点到超平面S的总函数距离: \[ -\sum_{x_i\in M}y_i({\bf w^T x_i} + b) \] 感知机选取不同的初值或选取不同的分类点,解可能不同。

PS: 支持向量机的输入和感知机是一样的。

那么感知机的许多解中,哪个比较好?比如下面的这三个:

there_classifiers_fatness

直观上看,我们希望得到的是第三个结果,因为分类的边界离样本点远,这样,容错性(鲁棒性robust)会比较好。

仍然设我们的平面为\({\bf w^Tx}+b\),我们有如下优化问题: \[ \begin{align*} \max_{\bf w,b} \hspace{3ex}&{\rm margin}({\bf w},b) \tag{1-1}\\ {\rm s.t.}\hspace{3ex} &y_i{\bf (w^\mathsf{T}x}_i + b)> 0, \hspace{3ex}i=1,2..n\\ &{\rm margin}({\bf w},b) = \min_{i=1,\ldots,m}{\rm distance}({\bf x}_i, {\bf w},b) \end{align*} \] 上面的第一个约束条件我们已经在感知机中见过,表达的意思就是全部样本都分类正确(这里我们先将设数据集线性可分),其中\(y_i({\bf w^T x_i} + b)\)也叫做函数距离。第二个优化条件则是定义边界为样本到超平面最短的距离,这个距离稍后详解,我们的目标函数则是最大化它。

在感知机中,我们证明过点x到平面的距离为: \[ {\rm distance}({\bf x}_i, {\bf w},b) = \frac{1}{|\!|{\bf w}|\!|}|{\bf w^T x_i} + b| \] 在数据集线性可分的情况下,分离超平面对数据集中每个点都有\(y_i(w^Tx_i+b)>0\)。因此,距离的计算公式又可以写为: \[ {\rm distance}({\bf x}_i, {\bf w},b) = \frac{1}{|\!|{\bf w}|\!|}y_i({\bf w^T x_i} + b)\tag{1-2} \] 1-2这个距离称为几何距离。函数距离和几何距离有啥关系呢?为什么要用几何距离呢?

几何距离就相当于函数距离做了规范化。函数距离只能表示分类的正确性,但是不同超平面的系数是可以放缩的,比如\({\bf w^T x_i} + b = 0\)\(3{\bf w^T x_i} +3 b = 0\) 所表示的超平面是一样的,但是函数距离后者是前者的3倍!因此,确定超平面的时候,应该使用几何距离。

于是,我们假定让点到超平面的函数最小几何距离为\(\gamma\),式1-1可以写为: \[ \begin{align*} \max_{\bf w,b} \hspace{3ex}& \gamma\tag{1-3}\\ {\rm s.t.}\hspace{3ex} & \frac{y_i({\bf w^T x_i} + b)}{|\!|{\bf w}|\!| } \ge \gamma, \hspace{3ex}i=1,2,\cdots ,n \end{align*} \]

PS: 原来的\(y_i({\bf w^T x_i} + b) >0\)的条件限制不如新的条件,因此略去了。

考虑函数间隔和几何间隔的关系,可以将1-3写为: \[ \begin{align*} \max_{\bf w,b} \hspace{3ex}& \frac{ \gamma}{|\!|{\bf w}|\!| }\tag{1-3}\\ {\rm s.t.}\hspace{3ex} &y_i({\bf w^T x_i} + b)\ge \gamma, \hspace{3ex}i=1,2,\cdots ,n \end{align*} \] 原来\(\gamma\)是点到超平面的最小几何距离,现在仍然是\(\gamma\)则是最小的函数距离,但是优化的目标仍然是几何距离。

现在,可以进一步化简,\(\gamma\)的取值其实对约束条件没有影响,也对优化目标没有影响。因为假设\(\bf w\)和b按比例变为\(\lambda {\bf w}\)\(\lambda b\),则函数间隔也变成了\(\lambda\gamma\)(PS:同时可以看出几何间隔还是一样的 )。因此,不妨令\(\gamma = 1\),于是可以重写问题如下: \[ \begin{align*} \max_{\bf w,b} \hspace{3ex}& \frac{1}{|\!|{\bf w}|\!|}\\ {\rm s.t.}\hspace{3ex} & y_i({\bf w^T x_i} + b) \ge 1, \hspace{3ex} i=1,2,\cdots ,n \end{align*} \] 注意最大化 \(\frac{1}{||w||}\)和最小化\(\frac{1}{2}||{\bf w}||^2 =\frac{1}{2}{\bf w^Tw}\)是等价的,因此有: \[ \begin{align*} \min_{\bf w,b}\hspace{3ex} & \frac{1}{2} {\bf w^Tw}\tag{1-4}\\ {\rm s.t.}\hspace{3ex} & y_i({\bf w^T x_i} + b) \ge 1, \hspace{3ex}i=1,2,\cdots ,n \end{align*} \] 式1-4所表示的优化问题就称为SVM的原始问题

在很多介绍SVM的资料中(包括西瓜书),对于SVM的原始问题都十分简单。它们都很直接的说:限制条件为\(y_i({\bf w^T x_i} + b) \ge 1\),然后直接做类似如下推导:

svm_margin \[ \begin{align} &{\bf w^T x^+} + b = +1 & \\&{\bf w^T x^-} + b =-1 & \\联立两式:&{\bf w^T (x^+ - x^-) } = 2& \\ 因为:& {\bf x^+ = x^- + \lambda w } &\Rightarrow \lambda = \frac{2}{\bf w^Tw} \\间距和为:& |\!|\bf{x^+ - x^-}|\!| = |\!|\lambda w|\!|= \frac{2}{\bf w^Tw} |\!|w|\!| = \frac{2}{|\!|w|\!|} \\然后最大化&\frac{2}{|\!|w|\!|}和最小化 \frac{1}{2}{\bf w^Tw}等价 \end{align} \] 但其实限制条件是从上面这样缩放而来的,因此本文关于原问题的基本是按照林轩田老师和李航老师的思路写的。

这个图很直观的反应了最大间隔分离超平面完全由离该超平面最近的点定义,其它点如果从数据集中删除掉,对最优超平面的选择没有任何影响。这些决定了最大间隔分离超平面的点通常被称为支持向量,因此SVM的意思就是使用支持向量学习出最优的超平面。

二次规划求解

式1-4所表示的SVM原始问题是一个凸的二次规划问题,可以直接用现成的优化计算包求解。

在此之前,需要表示为标准形式。

二次规划的标准形式为: \[ \begin{align*} \min_{\bf u} & \hspace{3ex}\frac{1}{2}{\bf u}^\mathsf{T}{\rm Q}{\bf u} + {\bf p^\mathsf{T}u} \\ {\rm s.t.} & \hspace{3ex}{\bf a}_i^\mathsf{T}{\bf u} \ge c_i, {\rm for\ }i =1,2,\ldots, M \end{align*} \]

根据和1-4的对应关系,设维度为d得: \[ \begin{align*} {\bf u} &= \left[\begin{array}{c}b \\ {\bf w}\end{array}\right] \\ {\rm Q} &= \left[\begin{matrix} 0 & {\bf 0}_d^\mathsf{T} \\ {\bf 0}_d & {\rm I}_d\end{matrix}\right] \\ {\bf p} &= {\bf 0}_{d+1} \\ {\bf a}_n^\mathsf{T} &= y_n\left[\begin{array}{c}1 & {\bf x}_n^\mathsf{T}\end{array}\right] \\ c_n &= 1 \\ M &= n \end{align*} \]

SVM对偶问题

虽然可以求解1-4的SVM原始问题,但是我们可以利用拉格朗日乘子法得到对偶问题。这样的好处是:

  1. 对偶问题往往更容易求解
  2. 自然引入核函数,进而推广到非线性分类问题

好处2在下一小结再讲。现在讲讲好处1。

在线性回归一章中,讲到可以进行空间的变换。

\({\bf z} = \Phi({\bf x})\), 则SVM 原始问题写为: \[ \begin{align*} \min_{\bf w,b}\hspace{3ex} & \frac{1}{2} {\bf w^Tw}\\ {\rm s.t.}\hspace{3ex} & y_i({\bf w^T \Phi({x})} + b) \ge 1, \hspace{3ex}i=1,2,\cdots ,n \end{align*} \] x经过非线性特征转换以后,映射到新空间里得到的z通常维度比较高。

记映射前维度为d, 映射后向量的维度为\(\tilde{d}\),则求解二次规划时需要面对\(\tilde{d} + 1\)个变量(w和b)和n个限制条件。

因此,需要探索一种方法使得SVM不去依赖\(\tilde{d}\)

拉格朗日乘子法

首先讲解拉格朗日乘子法,给定优化问题: \[ \begin{align*} \min_{\bf x} & \hspace{3ex} f({\bf x}) \\ {\rm s.t.} & \hspace{3ex} g_i({\bf x}) \le 0, \ {\rm for\ }i =1,2,\ldots, m \\ & \hspace{3ex} h_j({\bf x}) = 0, \ {\rm for\ }j =1,2,\ldots, n \end{align*} \] 可以写出拉格朗日函数: \[ \mathcal{L({\bf x},{\boldsymbol \alpha}, {\boldsymbol \beta})} = f({\bf x}) + \sum_{i=1}^m\alpha_ig_i({\bf x}) + \sum_{j=1}^n\beta_jh_j({\bf x}), \alpha_i \ge 0 \] 则原问题等价于: \[ \begin{align} \min_{ {\bf x} } \max_{ {\boldsymbol \alpha}, {\boldsymbol \beta} } & \tag{2-1}\hspace{3ex} \mathcal{L({\bf x},{\boldsymbol \alpha}, {\boldsymbol \beta})} \\ {\rm s.t.} & \hspace{3ex} \alpha_i \ge 0 \end{align} \] 为什么呢?做个简单的推导: \[ \begin{align} &\min_{ {\bf x} } \max_{ {\boldsymbol \alpha}, {\boldsymbol \beta} } \mathcal{L({\bf x},{\boldsymbol \alpha}, {\boldsymbol \beta})} \\ = & \min_{ {\bf x} } \left( f(x) + \max_{ {\boldsymbol \alpha}, {\boldsymbol \beta} } \left( \sum_{i=1}^m\alpha_ig_i({\bf x}) + \sum_{j=1}^n\beta_jh_j({\bf x})\right) \right) \\=& \min_{ {\bf x} } \left( f(x) +\begin{cases} 0& \text{u满足约束条件}\\ \infty& \text{otherwise} \end{cases} \right) \end{align} \]

  • 当g不满足约束条件的时候(\(g_i(x) \gt 0\)),我们内层优化取max,因此\(\alpha_i = \infty \Rightarrow \alpha_ig_i({\bf x}) = \infty\)
  • 当g满足约束条件的时候(\(g_i(x) \le 0\)),我们内层优化取max,因此\(\alpha_i =0 \Rightarrow \alpha_ig_i({\bf x}) = 0\)
  • 当h不满足约束条件的时候(\(h_j(x) \ne0\)),同理可以取\(\beta_j= \rm sign(h_j({\bf x})) \infty \Rightarrow \beta_jh_j({\bf x}) = \infty\)
  • 当h满足约束条件的时候(\(h_j(x) =0\)),同理可以取\(\beta_jh_j({\bf x}) =0\)

为了使2-1达到优值,需要满足如下条件(KKT条件):

  • 主问题可行: \(g_i({\bf x}) \le 0, h_i({\bf x}) = 0\)
  • 对偶问题可行: \(\alpha_i \ge 0\)
  • 互补松弛: \(\alpha_i g_i({\bf x}) = 0\)

主问题可行是上面推导的结果,对偶问题可行为2-1的约束项。

互补松弛是主问题和对偶问题都可行的条件下的最大值。

拉格朗日对偶问题

定义2-1的对偶问题为: \[ \begin{align*} \max_{ {\boldsymbol \alpha}, {\boldsymbol \beta} }\min_{ {\bf x} } & \tag{2-2}\hspace{3ex} \mathcal{L({\bf x},{\boldsymbol \alpha}, {\boldsymbol \beta})} \\ {\rm s.t.} & \hspace{3ex} \alpha_i \ge 0 \end{align*} \] 对偶问题是原问题的下界,即: \[ \max_{ {\boldsymbol \alpha}, {\boldsymbol \beta} }\min_{ {\bf x} } \mathcal{L({\bf x},{\boldsymbol \alpha}, {\boldsymbol \beta})} \le \min_{ {\bf x} } \max_{ {\boldsymbol \alpha}, {\boldsymbol \beta} } \mathcal{L({\bf x},{\boldsymbol \alpha}, {\boldsymbol \beta})} \] 因为总是有 \(\min_{ {\bf x} } \mathcal{L({\bf x},{\boldsymbol \alpha}, {\boldsymbol \beta})} \le\min_{ {\bf x} } \max_{ {\boldsymbol \alpha}, {\boldsymbol \beta} } \mathcal{L({\bf x},{\boldsymbol \alpha}, {\boldsymbol \beta})}\) 成立,对任意可能的值求极值,肯定不如直接求到的极值大。有句俗语叫“瘦死的骆驼比马大”说的就是这个道理。

2-2只是交换了max-min的顺序,得到的就是拉格朗日对偶问题

SVM 对偶问题推导

首先变换SVM原问题为: \[ \begin{align*} \min_{\bf w,b}\hspace{3ex} & \frac{1}{2} {\bf w^Tw}\\ {\rm s.t.}\hspace{3ex} & 1 - y_i({\bf w^T x_i} + b) \le0, \hspace{3ex}i=1,2,\cdots ,n \end{align*} \] 可以写出拉格朗日函数如下: \[ \mathcal{L({\bf w},b,{\boldsymbol \alpha})} =\frac{1}{2} {\bf w^Tw} + \sum_{i=1}^n\alpha_i \left( 1 - y_i({\bf w^T x_i} + b) \right) , \alpha_i \ge 0 \tag{2-3} \] 根据拉格朗日对偶性,得到对偶问题为: \[ \begin{align*} \max_{ {\boldsymbol \alpha} }\min_{ {\bf w} , b} & \hspace{3ex} \mathcal{L({\bf w},b,{\boldsymbol \alpha})} \\ {\rm s.t.} & \hspace{3ex} \alpha_i \ge 0, i = 1,2,\cdots ,n \end{align*}\tag{2-4} \] 求解\(\min_{ {\bf w} , b} \mathcal{L({\bf w},b,{\boldsymbol \alpha})}\),拉格朗日函数2-3分别对w和b求偏导,得: \[ \frac{\partial\mathcal{L({\bf w},b,{\boldsymbol \alpha})} }{\partial{\bf w} } = {\bf w} - \sum_{i=1}^n\alpha_iy_i{\bf x_i}\\ \frac{\partial\mathcal{L({\bf w},b,{\boldsymbol \alpha})} }{\partial b} = -\sum_{i=1}^n \alpha_iy_i \] 令偏导为0,得: \[ {\bf w} = \sum_{i=1}^n \alpha_iy_i{\bf x_i}\tag{2-5} \]

\[ \sum_{i=1}^n \alpha_iy_i = 0 \tag{2-6} \]

带入拉格朗日函数2-3得: \[ \min_{ {\bf w},b}\mathcal{L({\bf w},b,{\boldsymbol \alpha})} = \sum_{i=1}^n\alpha_i-\frac{1}{2} \sum_{i=1}^n\sum_{j=1}^n \alpha_i\alpha_j y_iy_j{\bf x_i ^Tx_j} \] 再对\(\min_{ {\bf w},b}\mathcal{L({\bf w},b,{\boldsymbol \alpha})}\)求极大值得到对偶问题: \[ \begin{align*} \max_{ {\boldsymbol \alpha} }& \hspace{3ex}\sum_{i=1}^n\alpha_i-\frac{1}{2} \sum_{i=1}^n\sum_{j=1}^n \alpha_i\alpha_j y_iy_j{\bf x_i ^Tx_j}\\\tag{2-7} {\rm s.t.} & \hspace{3ex} \alpha_i \ge 0, i = 1,2,\cdots ,n\\ & \hspace{3ex} \sum_{i=1}^n \alpha_iy_i = 0 \end{align*} \] 注意我们把\({\bf w} = \sum_{i=1}^n \alpha_iy_i{\bf x_i}\)去掉了,因为这里求的是\(\alpha\)使得问题最大,和w无关。

2-7就是我们的SVM对偶问题。需要满足的KKT条件为:

  • 主问题可行: \(1 - y_i({\bf w^T x_i} + b) \le0\)
  • 对偶问题可行:\(\alpha_i \ge 0\)
  • 互补松弛: \(\alpha_i \left( 1 - y_i({\bf w^T x_i} + b) \right) = 0\)
  • 2-5和2-6的条件: \({\bf w} = \sum_{i=1}^n \alpha_iy_i{\bf x_i} ; \sum_{i=1}^n \alpha_iy_i = 0\)

PS: 周志华老师的KKT条件中没有2-5和2-6两式,而李航老师和林轩田老师的都有。 笔者认为也应该加上: )

这里有个很有意思的结论: 由于我们总有\(\alpha_i \ge 0\),当\(\alpha_i > 0\)时,\(y_i({\bf w^T x_i} + b) = 1\) ,此时所对应的样本点位于最大间隔边界上,是一个支持向量。这显示出一个重要的性质:训练完之后,大部分的训练样本都不需要保留,最终模型只与支持向量有关(同时也暗示复杂度主要与支持向量的数目有关)。

求解对偶问题

2-7所表示的SVM对偶问题仍可以用二次规划算法来求解,但是问题规模正比于训练样本数,在实际任务中开销很大。往往采用更高效的算法如SMO或者 Pegasos ,这将在最后介绍。

假设求解出了\(\alpha\), 那么根据KKT条件, 可得:

  • \({\bf w} = \sum_{i=1}^n \alpha_iy_i{\bf x_i}\)
  • 选取一个\(\alpha_i \gt 0\) 可得\(y_i({\bf w^T x_i} + b) = 1 \Rightarrow {\bf w^T x_i} + b= y_i \Rightarrow b = y_i - {\bf w^T x_i}\)

观察对偶支持向量机求解可以发现对偶问题的好处为:

  1. 只需要优化\(\alpha\)而不是b和w,降低了算法的时间复杂度
  2. 通过查看\(a_i > 0\) 便可找出支持向量

求得w和b即可构造超平面和对应的决策函数,和感知机一样: \[ \rm g_{svm}({\bf x}) = \rm sign({\bf w^Tx }+b) \]

小结

若进行空间变换\({\bf z} = \Phi({\bf x})\)则: \[ \rm g_{svm}({\bf z}) = \rm sign({\bf w^Tz }+b) \]

原始的SVM和对偶SVM对比如下表:

变量个数 适用情况 物理意义
原始SVM \(\tilde{d}+1\) 数据维度较小 对(w, b)进行缩放,得到一个合适的值
对偶SVM n 数据量比较小 找出支持向量和对应的\(\alpha\)

回想一下SVM对偶问题的初衷是避免对对数据维度\(\tilde{d}\)的依赖。虽然我们的对偶问题看上去最后求解时只依赖了数据量n,但是看看目标函数将会有一个\({\bf z_i^Tz_j}\)的内积(将x都映射到z),直接计算的话复杂度仍是\(O(\tilde{d})\),如何避免内积计算,请看下一篇 SVM的核函数讲解。

参考资料

  • 机器学习技法 - 林轩田
  • 《统计学习方法》 - 李航
  • 《机器学习》 - 周志华
  • 《从零构建支持向量机(SVM)》 - 张皓
请我喝杯咖啡吧~