L1-Normの劣微分

l1_subgradient_2

前にL1-Normの劣微分
について書いたが,間違っていたので修正.

[1]のPointwise maximumの項に書いてあるテクニックを使う.xRd\bm{x} \in \mathbb{R}^dとして,x1\|\bm{x}\|_1を以下のように表す(結構感動的).

f(x)=x1=max{sTxs{1,1}d} \begin{aligned} f(\bm{x}) = \|\bm{x}\|_1 = \max\{\bm{s}^T \bm{x} \vert \bm{s} \in \{-1, 1\}^d\} \end{aligned}

x\bm{x}に対して,x1=sTx\|\bm{x}\|_1 = \bm{s}^T \bm{x}となったとする.この時,s\bm{s}は以下のようになる.

sj={1(xj>0)1(xj<0)1 or 1(xj=0) \begin{aligned} s_j = \left\{\begin{array}{ll} 1 & (x_j > 0) \\ -1 & (x_j < 0) \\ -1 \ \text{or} \ 1 & (x_j = 0) \end{array}\right. \end{aligned}

sTx\bm{s}^T \bm{x}のsubgradientをg\bm{g}とすると,gf(x)\bm{g} \in \partial f(\bm{x})である.最後に,g=s\bm{g} = \bm{s}である.

参考:

  1. https://see.stanford.edu/materials/lsocoee364b/01-subgradients_notes.pdf

Written with StackEdit.

0 件のコメント:

コメントを投稿

機械学習の問題設定

機械学習の問題設定 機械学習の問題設定を見直したのでメモ. ( Ω , F , P ) (\Omega, \mathcal{F}, P) ( Ω , F , P ) : ベースとなる確率空間 ( X , F X ) (\mathcal...