Sparsity 是当今机器学习领域中的一个重要话题。John Lafferty 和 Larry Wasserman 在 2006 年的一篇评论中提到:

Some current challenges … are high dimensional data, sparsity, semi-supervised learning, the relation between computation and risk, and structured prediction. John Lafferty and Larry Wasserman. Challenges in statistical machine learning. Statistica Sinica. Volume 16, Number 2, pp. 307-323, 2006.

Sparsity 的最重要的“客户”大概要属 high dimensional data 了吧。现在的机器学习问题中,具有非常高维度的数据随处可见。例如,在文档或图片分类中常用的 bag of words 模型里,如果词典的大小是一百万,那么每个文档将由一百万维的向量来表示。高维度带来的的一个问题就是计算量:在一百万维的空间中,即使计算向量的内积这样的基本操作也会是非常费力的。不过,如果向量是稀疏的的话(事实上在 bag of words 模型中文档向量通常都是非常稀疏的),例如两个向量分别只有 L1L_1L2L_2 个非零元素,那么计算内积可以只使用 min(L1,L2)\min(L_1,L_2) 次乘法完成。因此稀疏性对于解决高维度数据的计算量问题是非常有效的。

当然高维度带来的问题不止是在计算量上。例如在许多生物相关的问题中,数据的维度非常高,但是由于收集数据需要昂贵的实验,因此可用的训练数据却相当少,这样的问题通常称为“small nn, large pp problem”——我们一般用 nn 表示数据点的个数,用 pp 表示变量的个数,即数据维度。当 pnp\gg n 的时候,不做任何其他假设或者限制的话,学习问题基本上是没法进行的。因为如果用上所有变量的话,pp 越大,通常会导致模型越复杂,但是反过来 nn 有很小,于是就会出现很严重的 overfitting 问题。例如,最简单的线性回归模型:

f(x)=j=1pwjxj=wTx f(\mathbf{x}) = \sum_{j=1}^pw^jx^j = \mathbf{w}^T\mathbf{x}

使用 square loss 来进行学习的话,就变成最小化如下的问题

J(w)=1ni=1n(yif(xi))2=1nyXw2 J(\mathbf{w})=\frac{1}{n}\sum_{i=1}^n (y_i-f(\mathbf{x}_i))^2 = \frac{1}{n}\left\|\mathbf{y}-X\mathbf{w}\right\|^2

这里 X=(x1,,xn)TRn×pX=(\mathbf{x}_1,\ldots,\mathbf{x}_n)^T\in\mathbb{R}^{n\times p} 是数据矩阵,而 y=(y1,,yn)T\mathbf{y}=(y_1,\ldots,y_n)^T 是由标签组成的列向量。该问题具有解析解

w^=(XTX)1XTy(1) \hat{\mathbf{w}} = \left(X^TX\right)^{-1}X^T\mathbf{y} \label{ed61992b37932e208ae114be75e42a3e6dc34cb3}\tag{1}

然而,如果 p>np>n 的话,矩阵 XTXX^TX 将会不是满秩的,而这个解也没法算出来。或者更确切地说,将会有无穷多个解。也就是说,我们的数据不足以确定一个解,如果我们从所有可行解里随机选一个的话,很可能并不是真正好的解,总而言之,我们 overfitting 了。

解决 overfitting 最常用的办法就是 regularization ,例如著名的 ridge regression 就是添加一个 2\ell_2 regularizer :

JR(w)=1nyXw2+λw2 J_R(\mathbf{w}) = \frac{1}{n}\left\|\mathbf{y}-X\mathbf{w}\right\|^2 + \lambda\|\mathbf{w}\|^2

直观地来看,添加这个 regularizer 会使得模型的解偏向于 norm 较小的 w\mathbf{w} 。从凸优化的角度来说,最小化上面这个 J(w)J(\mathbf{w}) 等价于如下问题:

minw1nyXw2,s.t.wC \min_{\mathbf{w}}\frac{1}{n}\left\|\mathbf{y}-X\mathbf{w}\right\|^2, \quad s.t. \|\mathbf{w}\|\leq C

其中 CC 是和 λ\lambda 一一对应的是个常数。也就是说,我们通过限制 w\mathbf{w} 的 norm 的大小实现了对模型空间的限制,从而在一定程度上(取决于 λ\lambda 的大小)避免了 overfitting 。不过 ridge regression 并不具有产生稀疏解的能力,得到的系数 w\mathbf{w} 仍然需要数据中的所有特征才能计算预测结果,从计算量上来说并没有得到改观。

不过,特别是在像生物或者医学等通常需要和人交互的领域,稀疏的解除了计算量上的好处之外,更重要的是更具有“可解释性”。比如说,一个病如果依赖于 5 个变量的话,将会更易于医生理解、描述和总结规律,但是如果依赖于 5000 个变量的话,基本上就超出人肉可处理的范围了。

在这里引入稀疏性的方法是用 1\ell_1 regularization 代替 2\ell_2 regularization,得到如下的目标函数

JL(w)=1nyXw2+λw1(2) J_L(\mathbf{w}) = \frac{1}{n}\left\|\mathbf{y}-X\mathbf{w}\right\|^2 + \lambda\|\mathbf{w}\|_1 \label{86d03bd30d14d5172a9ff0865cea33353abe0a54}\tag{2}

该问题通常被称为 LASSO (least absolute shrinkage and selection operator) 。LASSO 仍然是一个 convex optimization 问题,不过不再具有解析解。它的优良性质是能产生稀疏性,导致 w\mathbf{w} 中许多项变成零。

可是,为什么它能产生稀疏性呢?这也是一直让我挺感兴趣的一个问题,事实上在之前申请学校的时候一次电话面试中我也被问到了这个问题。我当时的回答是背后的理论我并不是很清楚,但是我知道一个直观上的理解。下面我们就先来看一下这个直观上的理解。

首先,和 ridge regression 类似,上面形式的 LASSO 问题也等价于如下形式:

minw1nyXw2,s.t.w1C \min_{\mathbf{w}}\frac{1}{n}\left\|\mathbf{y}-X\mathbf{w}\right\|^2, \quad s.t. \|\mathbf{w}\|_1\leq C

也就是说,我们将模型空间限制在 w\mathbf{w} 的一个 1\ell_1-ball 中。为了便于可视化,我们考虑两维的情况,在 (w1,w2)(w^1,w^2) 平面上可以画出目标函数的等高线,而约束条件则成为平面上半径为 CC 的一个 norm ball 。等高线与 norm ball 首次相交的地方就是最优解。如图 (fig: 1) 所示:

(a)
(b)

图 1(a) 1\ell_1-ball meets quadratic function. 1\ell_1-ball has corners. It’s very likely that the meet-point is at one of the corners. (b) 2\ell_2-ball meets quadratic function. 2\ell_2-ball has no corner. It is very unlikely that the meet-point is on any of axes.

可以看到,1\ell_1-ball 与 2\ell_2-ball 的不同就在于他在和每个坐标轴相交的地方都有“角”出现,而目标函数的测地线除非位置摆得非常好,大部分时候都会在角的地方相交。注意到在角的位置为产生稀疏性,例如图中的相交点就有 w1=0w^1=0 ,而更高维的时候(想象一下三维的 1\ell_1-ball 是什么样的?)除了角点以外,还有很多边的轮廓也是既有很大的概率成为第一次相交的地方,又会产生稀疏性。

相比之下,2\ell_2-ball 就没有这样的性质,因为没有角,所以第一次相交的地方出现在具有稀疏性的位置的概率就变得非常小了。这就从直观上来解释了为什么 1\ell_1 regularization 能产生稀疏性,而 2\ell_2 regularization 不行的原因了。

不过,如果只限于 intuitive 的解释的话,就不那么好玩了,但是背后完整的理论又不是那么容易能够搞清楚的,既然这次的标题是 Basics ,我们就先来看一个简单的特殊情况好了。

接下来我们考虑 orthonormal design 的情况:(1/n)XTX=I(1/n)X^TX=I 。然后看看 LASSO 的解具体是什么样子。注意 orthonormal design 实际上是要求特征之间相互正交。这可以通过对数据进行 PCA 以及模长 normalize 来实现。

注意到 LASSO 的目标函数 (eq: 2) 是 convex 的,根据 KKT 条件,在最优解的地方要求 gradient JL(w)=0\nabla J_L(\mathbf{w}) = 0 。不过这里有一点小问题: 1\ell_1-norm 不是光滑的,不存在 gradient ,所以我们需要用一点 subgradient 的东西。

1

定义 1(subgradient; subdifferential). 对于在 pp 维欧氏空间中的凸开子集 UU 上定义的实值函数 f:URf:U\rightarrow \mathbb{R} ,一个向量 pp 维向量 v\mathbf{v} 称为 ff 在一点 x0U\mathbf{x}_0\in U 处的 subgradient ,如果对于任意 xU\mathbf{x}\in U ,满足 f(x)f(x0)v(xx0) f(\mathbf{x}) - f(\mathbf{x}_0) \geq \mathbf{v}\cdot(\mathbf{x}-\mathbf{x}_0) 由在点 x0\mathbf{x}_0 处的所有 subgradient 所组成的集合称为 x0\mathbf{x}_0 处的 subdifferential ,记为 f(x0)\partial f(\mathbf{x}_0)

注意 subgradient 和 subdifferential 只是对凸函数定义的。例如一维的情况, f(x)=xf(x)=|x| ,在 x=0x=0 处的 subdifferential 就是 [1,+1][-1,+1] 这个区间(集合)。注意在 ff 的 gradient 存在的点,subdifferential 将是由 gradient 构成的一个单点集合。这样就将 gradient 的概念加以推广了。这个推广有一个很好的性质。

性质(condition for global minimizer). 点 x0\mathbf{x}_0 是凸函数 ff 的一个全局最小值点,当且仅当 0f(x0)0\in\partial f(\mathbf{x}_0)

证明很简单,将 0f(x0)0\in\partial f(\mathbf{x}_0) 带入定义 (def: 1) 中的那个式子立即就可以得到。有了这个工具之后,就可以对 LASSO 的最优解进行分析了。在此之前,我们先看一下原始的 least square 问题的最优解 (eq: 1) 现在变成了什么样子,由于 orthonormal design ,我们有

w^=1nXTy(3) \hat{\mathbf{w}} = \frac{1}{n}X^T\mathbf{y} \label{67364f6b44ff80f9f952d5a46f2307425d2ee9ac}\tag{3}

然后我们再来看 LASSO ,假设 wˉ=(wˉ1,,wˉp)T\bar{\mathbf{w}}=(\bar{w}^1,\ldots,\bar{w}^p)^TJL(w)J_L(\mathbf{w}) 的全局最优值点。考虑第 jj 个变量 wˉj\bar{w}^j ,有两种情况。

gradient 存在,此时 wˉj0\bar{w}^j\neq 0

由于 gradient 在最小值点必须要等于零,我们有

JL(w)wjwˉj=0 \left.\frac{\partial J_L(\mathbf{w})}{\partial w^j}\right|_{\bar{w}^j}=0

亦即

2n(XTyXTXwˉ)j+λsign(wˉj)=0 -\frac{2}{n}\left(X^T\mathbf{y} - X^TX\bar{\mathbf{w}}\right)_j + \lambda\text{sign}(\bar{w}^j) = 0

根据 orthonormal design 性质以及 least square 问题在 orthonormal design 时的解 (eq: 3) 化简得到

wˉj=w^jλ2sign(wˉj) \bar{w}^j = \hat{w}^j - \frac{\lambda}{2}\text{sign}(\bar{w}^j)

从这个式子也可以明显看出 wˉj\bar{w}^jw^j\hat{w}^j 是同号的,于是 sign(wˉj)\text{sign}(\bar{w}^j) 等于 sign(w^j)\text{sign}(\hat{w}^j) ,所以上面的式子变为

wˉj=w^jλ2sign(w^j)=sign(w^j)(w^jλ2) \bar{w}^j = \hat{w}^j - \frac{\lambda}{2}\text{sign}(\hat{w}^j) = \text{sign}(\hat{w}^j)\left(\left|\hat{w}^j\right|-\frac{\lambda}{2}\right)

再用一次 sign(w^j)=sign(wˉj)\text{sign}(\hat{w}^j)=\text{sign}(\bar{w}^j) ,两边同时乘以 sign(wˉj)\text{sign}(\bar{w}^j) ,可以得到

w^jλ2=wˉj0 \left|\hat{w}^j\right|-\frac{\lambda}{2} = \left|\bar{w}^j\right| \geq 0

于是刚才的式子可以进一步写为

wˉj=sign(w^j)(w^jλ2)+(4) \bar{w}^j = \text{sign}(\hat{w}^j)\left(\left|\hat{w}^j\right|-\frac{\lambda}{2}\right)_+ \label{d20da8b6b2900b1772cb16581253a77032cec97e}\tag{4}

这里 (x)+=max{x,0}(x)_+ = \max\{x, 0\} 表示 xx 的正部。

gradient 不存在,此时 wˉj=0\bar{w}^j=0

根据 subgradient 在最小值点处的性质的性质,此时比有

0=wˉjJL(wˉ)={2n(XTyXTXwˉ)j+λe:  e[1,1]}={2wˉj2w^j+λe:  e[1,1]} \begin{aligned} 0=\bar{w}^j\in\partial J_L(\bar{\mathbf{w}})&= \left\{-\frac{2}{n}\left(X^T\mathbf{y}-X^TX\bar{\mathbf{w}}\right)_j + \lambda e:\; e\in [-1,1]\right\} \\ &= \left\{2\bar{w}^j-2\hat{w}^j + \lambda e:\; e\in [-1,1]\right\} \end{aligned}

亦即存在 e0[1,1]e_0\in[-1,1] 使得

0=2wˉj2w^j+λe0=2w^j+λe0 0 = 2\bar{w}^j - 2\hat{w}^j + \lambda e_0 = -2\hat{w}^j + \lambda e_0

于是

w^j=λ2e0λ2 |\hat{w}^j| = \frac{\lambda}{2}|e_0| \leq \frac{\lambda}{2}

又因为 wˉj=0\bar{w}^j=0 ,所以这个时候式子也可以统一为 (eq: 4) 的形式。 如此一来,在 orthonormal design 的情况下,LASSO 的最优解就可以写为 (eq: 4) ,可以用图 (fig: 2) 形象地表达出来。

图 2Lasso, Ridge 与 Least Square 的示意图。

图上画了原始的 least square 解,LASSO 的解以及 ridge regression 的解,用上面同样的方法(不过由于 ridge regularizer 是 smooth 的,所以过程却简单得多)可以得知 ridge regression 的解是如下形式

n1+nλw^j \frac{n}{1+n\lambda}\hat{w}^j

可以 ridge regression 只是做了一个全局缩放,而 LASSO 则是做了一个 soft thresholding :将绝对值小于 λ/2\lambda/2 的那些系数直接变成零了,这也就更加令人信服地解释了 LASSO 为何能够产生稀疏解了。