有这么几个 1\ell_1-norm 相关的稀疏优化问题在某种意义下是等价的。首先是如下问题:

xa(λ)=argminx12Axy2+λx1 x^a(\lambda) = \operatorname*{arg min}_x \frac{1}{2}\|Ax-y\|^2 + \lambda \|x\|_1

这个形式通常来自于 regularized linear regression 等问题,其中使用 1\ell_1-norm 作为 regularizer 会偏向于得到稀疏的解,我们之前也曾简要地讨论过这个问题。同样的形式还可以解释为使用 Laplace prior 的 MAP 参数估计所得到的目标函数。

另一个问题是主要来自于 Compressive Sensing 的如下形式:

xb(ϵ)=argminxx1s.t.Axy2ϵ x^b(\epsilon) = \operatorname*{arg min}_x \|x\|_1\quad s.t. \|Ax-y\|^2\leq \epsilon

第三个是把目标函数和 constraint 的位置反过来一下的形式,这实际上是 LASSO 的原始形式:

xc(t)=argminx12Axy2s.t.x1t x^c(t) = \operatorname*{arg min}_x \frac{1}{2}\|Ax-y\|^2\quad s.t. \|x\|_1\leq t

关于这几个问题的等价性似乎直观上来讲也是可以接受的,而且大部分论文在提及这里的等价性的时候也都只是一笔带过或者只是很模糊地提了一下在相应的参数(这里要求它们都是正实数) λ\lambdaϵ\epsilontt 之间满足某个对应关系的时候它们的最优解是可以对应起来的。不知道有没有记错的是,好像若干年前还在某次组会上被提起,老师问大家有没有谁能上黑板写一下为什么等价,大家面面相觑…… ^_^bb今天在这里简单总结一下,似乎也并不是 trivial 的。

开始之前需要一点点关于 subgradient 和 subdifferential 的了解,可以参考我们之前所给的定义另外,知道如下的性质会对 subdifferential 的计算带来方便。

1

定理 1(Theorem 23.8 (Convex Analysis, by R.T. Rockafellar)). 令 f=f1++fmf=f_1+\ldots+f_m,其中 f1,,fmf_1,\ldots,f_mRn\mathbb{R}^n 中的 proper convex function,则对任意 xx,我们有:

f(x)f1(x)++fm(x) \partial f(x) \supset \partial f_1(x) + \ldots + \partial f_m(x)

如果更进一步地,凸集 ri(domfi),i=1,,m\text{ri}(\text{dom} f_i), i=1,\ldots,m 有非空交集的话,对任意 xx,我们有

f(x)=f1(x)++fm(x) \partial f(x) = \partial f_1(x) + \ldots + \partial f_m(x)

再知道一下凸函数 ffxx^* 处取到最优值当且仅当 0f(x)0\in \partial f(x^*),就可以开始我们的分析了。为了方便起见,我们把三个问题分别叫做 URLS (Unconstrained Regularized Least Square)、CS (Compressive Sensing) 和 LASSO(注意这些并不是标准的叫法,只是在这篇文章中用的临时名字),并定义如下三个目标函数:

fa(x)=12Axy2+λx1fb(x)=x1+δ(xB2ϵ)fc(x)=12Axy2+δ(xB1t) \begin{aligned} f^a(x) &= \frac{1}{2}\|Ax-y\|^2 + \lambda \|x\|_1 \\ f^b(x) &= \|x\|_1 + \delta(x|B_2^{\epsilon}) \\ f^c(x) &= \frac{1}{2}\|Ax-y\|^2 + \delta(x|B_1^t) \end{aligned}

其中集合 indicator 函数 δ(xC)\delta(x|C) 定义为

δ(xC)={0xCx∉C \delta(x|C) = \begin{cases}0 & x\in C\\ \infty & x\not\in C\end{cases}

B1tB_1^tB2ϵB_2^{\epsilon} 则分别是对应的 1\ell_1-ball 和 2\ell_2-ball 集合。通过使用这种非 regular 的函数,可以在形式上把后面两个问题也写成 unconstrained 的问题,在分析上变得方便一点。

首先来看一下 URLS 和 LASSO 之间的等价性,也就是 xa(λ)x^a(\lambda)xc(t)x^c(t) 什么时候会相等。

第一点可以明确的是,如果 t<xa(λ)1t < \|x^a(\lambda)\|_1,那么两者最优值肯定是不想等的,因为此时 URLS 的最优解在 LASSO 问题下是 infeasible 的。反过来,如果 t>xa(λ)1t > \|x^a(\lambda)\|_1 也是不行的。假设不然,xa(λ)=xc(t)x^a(\lambda)=x^c(t),此时 LASSO 问题的最优解在 B1tB^t_1 的内部取到,而在内部目标函数 fc(x)f^c(x) 是可微的,于是 subdifferential 也退化为单点集:

fc(xc)={AT(Axcy)} \partial f^c(x^c) = \{A^T(Ax^c-y)\}

根据最优解的充要条件,AT(Axcy)=0A^T(Ax^c-y)=0。但是这会和 0fa(xa)0\in \partial f^a(x^a) 的条件矛盾,这里我们需要计算一下 1\ell_1-norm 的 subdifferential,因为 x1=ixi\|x\|_1=\sum_i |x_i|,所以可以利用刚才的定理 (thm: 1) 来做计算。而对于每一个 component hi(x)=λxih_i(x)=\lambda |x_i|,根据定义可以算出:

hi(x)={{αei:α[λ,λ]}xi=0{λsign(xi)ei}xi0 \partial h_i(x) = \begin{cases} \{\alpha e_i: \alpha\in[-\lambda,\lambda]\} & x_i = 0 \\ \{\lambda\text{sign}(x_i)e_i\} & x_i\neq 0 \end{cases}

其中 eie_i 是第 ii 维上的单位向量。根据定理 (thm: 1) 和最优解相等的假设,我们有

fa(xa)=AT(Axay)+ihi(xa)=AT(Axcy)+ihi(xa)=ihi(xa) \begin{aligned} \partial f^a(x^a) &= A^T(Ax^a-y) + \sum_i \partial h_i(x^a) \\ &= A^T(Ax^c-y) + \sum_i \partial h_i(x^a) \\ &= \sum_i \partial h_i(x^a) \end{aligned}

所以为了要求 0fa(xa)0\in \partial f^a(x^a),而 λ0\lambda\neq 0 的情况下,就只能 xax^a 的每一个分量都必须等于零了。小结一下就是:除非两个问题的最优解同时是 xc=xa=0x^c=x^a=0 这种特殊情况,否则在 t>xa(λ)1t > \|x^a(\lambda)\|_1 的时候也会导出矛盾。

因此就只剩下 t=xa(λ)1t=\|x^a(\lambda)\|_1 的情况了。很容易看到这种情况下 xcx^c 必须等于 xax^a,因为如果不是这样的话,根据 xcx^c 是 LASSO 问题的最优解(而 xax^a 不是),我们可以得到

Axcy2<Axay2\|Ax^c-y\|^2<\|Ax^a-y\|^2

另一方面,根据 xcx^c 的 feasibility,我们有 xc1t=xa1\|x^c\|_1\leq t = \|x^a\|_1。这样一来,我们实际上有

fa(xc)<fa(xa) f^a(x^c) < f^a(x^a)

因此 xax^a 不可能是 URLS 问题的最优解,得到矛盾。这个是充分性,必要性同样可以通过分析 subdifferential 的结构来得到。因此结论是,在参数满足关系 t=xa(λ)1t=\|x^a(\lambda)\|_1 的情况下,LASSO 问题和 URLS 问题是等价的。需要注意的是这虽然是一个一一对应(因为接下来我们要导出逆向的映射),但是并不是有一个显式的易于计算的映射可以用于在实际问题中直接得出一个问题关于另一个问题的等价形式——因为我们可以看到要得到映射的结果需要先把其中一个问题的最优解算出来。

反过来的映射,我们还是通过 0fa(xa)0\in \partial f^a(x^a) 这个条件,根据刚才我们得到的 1\ell_1-norm 的 subdifferential 的形式,可以再把这个条件显式地写出来:

(AT(yAxa))i=λsign(xia),if xia0(AT(yAxa))iλ,if xia=0 \begin{aligned} \left( A^T(y-Ax^a) \right)_i &= \lambda \text{sign}(x_i^a),\quad \text{if } x^a_i\neq 0 \\ \left| \left( A^T(y-Ax^a) \right)_i \right| &\leq \lambda, \quad\text{if }x^a_i=0 \end{aligned}

所以除非是 xa=0x^a=0 这个解的话,我们必须有 λ=maxi(AT(yAxa))i\lambda = \max_i |(A^T(y-Ax^a))_i|。此时如果两个最优解相等的话,λ\lambdatt 的关系自然就变成了 λ=maxi(AT(yAxc(t)))i\lambda=\max_i |(A^T(y-Ax^c(t)))_i|。这是必要条件。

反过来如果我们直接令 λ=maxi(AT(yAxc(t)))i\lambda = \max_i |(A^T(y-Ax^c(t)))_i| 的话,显然将 x=xc(t)x=x^c(t) 带入是可以满足上面的条件的,根据凸优化解的唯一性,也就有 xa(λ)=xc(t)x^a(\lambda)=x^c(t)

小结一下,URLS 问题和 LASSO 问题之间有一个参数的一一对应关系使得对应的问题等价,虽然在实际中一般没法直接计算,不过形式上两者之间的相互映射如下:

t=xa(λ)1λ=maxi(AT(yAxc(t)))i \begin{aligned} t &=\|x^a(\lambda)\|_1 \\ \lambda &= \max_i |(A^T(y-Ax^c(t)))_i| \end{aligned}

用同样的方法可以分析 URLS 和 CS 之间的关系。具体来说,我们可以验证,当 ϵ=Axa(λ)y2\epsilon = \|Ax^a(\lambda)-y\|^2 时,会有 xa(λ)=xb(ϵ)x^a(\lambda)=x^b(\epsilon)。而当两个最优解相等的时候,CS 问题如果排除了零解这种情况,那么最优解肯定出现在 B2ϵB_2^{\epsilon} 边界上,于是反过来也能得到

ϵ=Axb(ϵ)y2=Axa(λ)y2 \epsilon = \|Ax^b(\epsilon)-y\|^2 = \|Ax^a(\lambda)-y\|^2

逆向的从 ϵ\epsilonλ\lambda 的映射则和之前的分析完全一样了,就不重复写一遍了。

一般来说,从 CS 或者 LASSO 的形式往 URLS 的形式转化的场合比较多一点,因为后面两者问题的 constraint 的具体值的“物理”意义通常可以比较容易诠释,而且这类的 formulation 会更多地直接从具体问题中抽象出来。但是另一方面 URLS 的优化算法方面的研究似乎又是最多的,所以在实际中通常需要把后两种问题转化成第一种,但是实际中通常 λ\lambda 等价情况下的具体值是没法事先算出来的——如果先算出原始问题的最优解再带入上面的公式,则问题都已经解决了后续的步骤就毫无意义了。所以有时候会直接采用经验或者纯 empirically 地使用 cross validation 选择最优的 λ\lambda 之类的;另外一种可能就是可以使用像 LARS 之类的 Homotopy Method,解出随着 λ\lambda 变化所能得到的一系列 xa(λ)x^a(\lambda) 解,然后再在得到的一系列解中去找和原始问题的对应关系。